Los riesgos de recurrir a la IA en una crisis suicida


Investigadores de Northeastern University han evaluado el comportamiento de los principales asistentes basados en inteligencia artificial ante situaciones de riesgo suicida.

El estudio revela que los protocolos de seguridad de estos sistemas pueden ser fácilmente eludidos, lo que plantea desafíos éticos y técnicos en su uso por personas en situación de vulnerabilidad emocional.

Casos recientes y contexto del estudio

En los últimos dos años se han registrado casos de adolescentes que mantuvieron conversaciones íntimas con chatbots antes de suicidarse. Sewell Setzer III y Adam Raine, ambos menores de edad interactuaron con asistentes virtuales que respondieron de forma ambigua o complaciente ante expresiones de ideación suicida.

El estudio liderado por Annika Schoene y Cansu Canca analizó cuatro sistemas de IA: ChatGPT, Gemini, Claude y Perplexity. Los investigadores comprobaron que bastaba con presentar las preguntas como “hipotéticas” o “para fines académicos” para que los modelos proporcionaran información explícita sobre métodos de autolesión. Solo Pi AI mantuvo sus salvaguardas activas en todos los casos.

Riesgos en el ámbito periodístico

Los investigadores también probaron el uso de ChatGPT para redactar textos periodísticos sobre suicidio. A pesar de explicar las directrices internacionales sobre cobertura responsable, el sistema generó contenido con detalles explícitos del método, lo que contraviene las recomendaciones profesionales.

Estudios previos han señalado que algunos modelos subestiman el riesgo suicida o sobreestiman el dolor psicológico. Expertos en salud mental advierten que la tendencia de los asistentes a complacer puede generar bucles emocionales que refuerzan el malestar, sin ofrecer contención ni alternativas terapéuticas.

Psicólogos clínicos señalan que el uso de IA como único interlocutor refleja una desconexión emocional en entornos hiperconectados. La percepción de confidencialidad en las conversaciones con máquinas puede dificultar la activación de protocolos de emergencia, incluso cuando hay riesgo vital.

Una de las demandas más frecuentes es que los asistentes puedan alertar automáticamente a familiares o autoridades. Sin embargo, esta medida plantea dilemas éticos sobre la privacidad. Expertos proponen que la IA actúe como puente hacia recursos humanos, no como sistema de vigilancia.

Tendencias y respuestas actuales

Algunos desarrolladores han reforzado los límites de sus sistemas. En casos recientes, ChatGPT ha ofrecido recursos como líneas de ayuda y acompañamiento emocional. Según datos del Instituto Nacional de Estadística, los suicidios en España disminuyeron un 6,6 % en 2024 respecto al año anterior.

El estudio concluye que, aunque la inteligencia artificial puede ofrecer una primera acogida en situaciones de crisis, no sustituye la intervención humana profesional.

La investigación plantea la necesidad de reforzar los espacios de escucha y apoyo humano, y de revisar los protocolos de seguridad de los asistentes virtuales para evitar consecuencias no deseadas.


ultimasnoticias.com.ve

Ver fuente