Un estudio reciente ha revelado que los chatbots basados en inteligencia artificial suelen mostrar niveles elevados de autoconfianza al interactuar con usuarios, incluso cuando sus respuestas son erróneas.
Este comportamiento, observado en modelos de lenguaje avanzados, plantea interrogantes sobre la fiabilidad, la percepción pública y el diseño responsable de sistemas conversacionales.
¿Qué revela el estudio?
Investigadores del ámbito de la inteligencia artificial analizaron miles de interacciones entre usuarios y chatbots, encontrando que los modelos tienden a emitir afirmaciones con tono seguro, incluso cuando no tienen evidencia suficiente o cuando se equivocan en datos verificables.
Por ejemplo, “si una persona creía que iba a acertar 18 preguntas y al final acertaba 15, después corregía su estimación a unas 16”, explica Trent Cash, primer firmante del estudio, publicado en la revista Memory & Cognition.
Este fenómeno, conocido como “alucinación de IA”, se agrava cuando el sistema no reconoce sus propios límites, generando respuestas que parecen convincentes, pero carecen de fundamento.
La investigación, que recopiló datos durante dos años con versiones actualizadas de los modelos, detectó esta sobre confianza de forma consistente entre diferentes sistemas de IA, refirió Sinc.
¿Por qué ocurre este exceso de confianza?
Los modelos de lenguaje están entrenados para generar texto coherente y fluido, optimizando la probabilidad de palabras en secuencia. Sin embargo, esta optimización no garantiza veracidad. La autoconfianza aparente es una consecuencia del diseño estadístico, no de una comprensión real.
Este comportamiento puede generar desinformación, especialmente en contextos sensibles como salud, ciencia o política. Además, refuerza la ilusión de que los sistemas “saben” más de lo que realmente comprenden, lo que exige una alfabetización digital más crítica por parte de los usuarios.
Los desarrolladores enfrentan el reto de diseñar chatbots que reconozcan sus límites, indiquen niveles de certeza y fomenten la verificación externa.
Este hallazgo subraya la necesidad de una interacción más consciente con sistemas de IA, así como el desarrollo de herramientas que prioricen la transparencia, la humildad algorítmica y la responsabilidad comunicacional.
ultimasnoticias.com.ve
Ver fuente