ESET advierte que tus charlas con la IA no son tan privadas


La inteligencia artificial (IA) se ha consolidado como una infraestructura digital básica para millones de usuarios, quienes la emplean para programar, redactar correos o resumir documentos técnicos. Sin embargo, la escala masiva de estas herramientas —con ChatGPT alcanzando los 900 millones de usuarios semanales— plantea interrogantes sobre el destino de la información compartida en sus campos de texto.

La compañía de ciberseguridad ESET advirtió recientemente que las conversaciones con estos modelos de lenguaje no son volátiles ni funcionan como un chat privado convencional. Mario Micucci, investigador de seguridad de la firma, señaló que interactuar con estas plataformas implica una red de almacenamiento que puede exponer secretos comerciales si no se gestiona con precaución.

El tratamiento de los datos en herramientas como ChatGPT atraviesa tres capas críticas: el almacenamiento en servidores para mantener el historial, el entrenamiento de futuros modelos de lenguaje y la revisión humana. En esta última fase, especialistas capacitados leen fragmentos anonimizados de los diálogos para evaluar la calidad y seguridad de las respuestas generadas.

El riesgo de la “memorización” de datos

El peligro principal reside en que la IA aprenda patrones de los textos compartidos y los reproduzca en respuestas generales a otros usuarios. Micucci destacó que ingresar planes estratégicos, código propietario o credenciales expone a las empresas a riesgos de extracción de datos. Por ello, se recomienda usar únicamente herramientas aprobadas corporativamente con controles de privacidad estrictos.

A la exposición interna se suma la amenaza de actores externos. Datos de 2024 revelan que más de 225.000 registros de inicio de sesión de ChatGPT fueron detectados a la venta en foros de la dark web. Estos robos, ejecutados principalmente mediante malware de tipo infostealer, permiten a los atacantes acceder al historial completo de interacciones sensibles de una cuenta comprometida.

Cómo proteger la información confidencial

Para mitigar estas vulnerabilidades, expertos recomiendan aplicar la técnica de anonimización: reemplazar nombres de clientes por alias y ocultar fragmentos de código con claves de acceso antes de enviar un prompt. Una vez que el modelo procesa los datos, el proceso técnico de “desaprendizaje” es complejo y no está garantizado.

Asimismo, es fundamental configurar las opciones de privacidad (opt-out) para desactivar el historial de chat y el entrenamiento de modelos en el menú de configuración de herramientas como ChatGPT o Gemini. El uso de contraseñas robustas y la activación de la autenticación de dos factores (2FA) completan el esquema básico de protección para reducir la huella digital.


ultimasnoticias.com.ve

Ver fuente