José Leggio Cassara - Inteligencia artificial; Arma de engaño masivo o revolución controlada - FOTO


DAT.- Hablar de la inteligencia artificial (IA) es hacerlo de una herramienta poderosa que amplía las capacidades humanas. De eso no cabe ninguna duda. Sin embargo, también lo hacemos de una potencial arma que multiplica exponencialmente las posibilidades de engaño. Con modelos como los de generación de texto, imagen y vídeo, cualquier persona puede crear contenido falso que parece auténtico en segundos, erosionando la confianza en lo que vemos y leemos en internet.

En este contexto de oportunidades y riesgos, la IA no solo transforma industrias y sociedades, sino que nos obliga a replantear urgentemente los pilares de la verificación, la ética y la regulación. De acuerdo al Ingeniero José Leggio Cassara, un gran defensor de la lucha contra la difamación en medios digitales y redes sociales, solo mediante un enfoque responsable, transparente y colaborativo entre desarrolladores, gobiernos y ciudadanos podremos aprovechar el potencial transformador de esta herramienta sin caer en un escenario donde la verdad sea el primer daño colateral de la innovación.

La evolución del engaño

Uno de los peligros más inmediatos que trae consigo la inteligencia artificial es la creación de deepfakes. Videos manipulados de políticos diciendo cosas que nunca dijeron, o de personas comunes en situaciones comprometedoras, se propagan viralmente y destruyen reputaciones antes de que se pueda comprobar su falsedad.

En ese orden de ideas, las estafas han evolucionado con IA. Los delincuentes clonan voces de familiares para pedir dinero por teléfono, generan fotos falsas de accidentes o secuestros, o crean perfiles completos en redes sociales que parecen reales, pero solo buscan robar datos o dinero.

Por otro lado, la difamación masiva es ahora automatizable. Bots impulsados por IA pueden generar miles de comentarios, reseñas falsas o publicaciones que arruinan la imagen de una empresa, persona o producto en cuestión de horas, algo que antes requería ejércitos de trolls humanos.

Y si hablamos del ámbito político, acá la IA permite campañas de desinformación a escala industrial. Durante elecciones, se han detectado redes de cuentas falsas que inundan plataformas con narrativas manipuladas, polarizando aún más a la sociedad y debilitando la democracia.

La erosión de la confianza

Gracias a la IA, el phishing se ha vuelto casi indetectable. Correos generados por esta herramienta imitan perfectamente el estilo de bancos, empresas o jefes, con logos, firmas y lenguaje tan preciso que incluso expertos caen en la trampa, entregando contraseñas o datos sensibles.

En el terreno laboral, currículums falsos generados por IA, cartas de recomendación inventadas o incluso entrevistas simuladas con avatares engañan a reclutadores, colocando a personas no calificadas en puestos críticos de seguridad o responsabilidad.

Asimismo, la manipulación de evidencia judicial ya es una realidad. Fotos, audios y documentos generados por IA pueden usarse para incriminar inocentes o exculpar culpables, poniendo en jaque la justicia cuando los peritos no logren distinguir lo real de lo sintético.

La pornografía no consentida es uno de los usos más oscuros. Herramientas gratuitas permiten poner el rostro de cualquier persona en vídeos explícitos, afectando especialmente a mujeres y menores, con consecuencias psicológicas devastadoras y pocas vías legales efectivas.

Finalmente, el peligro más profundo es la pérdida de la realidad compartida. Cuando nadie pueda confiar en lo que ve o escucha, la sociedad se fragmenta en burbujas donde cada quien elige su propia ‘verdad’ fabricada, haciendo imposible el diálogo racional y abriendo la puerta al caos social controlado por quienes dominen estas herramientas.

LEA TAMBIÉN | José Leggio Cassara | Denuncia judicial: ¡Escudo infalible contra la difamación digital!

Regular la IA… ¿es posible?

El Ingeniero José Leggio Cassara, quien en 2020 denunció ante las autoridades venezolana un boicot en su contra impulsado por medios digitales y publicaciones en redes sociales, sabe muy bien que acudir a la ley es la mejor respuesta a las mentiras y difamaciones que pululan en el mundo online, y por eso es un fiel creyente en los distintos tipos de regulaciones que alrededor del mundo están apareciendo para contrarrestar los riesgos de la IA.

En la Unión Europea, por ejemplo, la Ley de Inteligencia Artificial (AI Act), aprobada en 2024 y en vigor progresivo desde agosto de ese año, representa el marco más completo contra la desinformación generada por IA que se ha visto hasta ahora. Prohíbe prácticas de alto riesgo como deepfakes manipuladores y obliga a etiquetar contenido sintético (imágenes, audios, vídeos) con marcas visibles o invisibles (watermarking) para alertar a los usuarios.

Desde febrero de 2025, entraron en vigor las prohibiciones iniciales, incluyendo sistemas que manipulan comportamiento o explotan vulnerabilidades. Para agosto de 2025, se aplican reglas de transparencia en modelos de IA general, exigiendo resúmenes de datos de entrenamiento y mitigación de riesgos como la difusión masiva de falsedades.

En Estados Unidos no hay ley federal integral en materia de IA, pero varios estados lideran la lucha de forma aparte: California promulgó en 2024-2025 leyes como AB 2839 (prohíbe deepfakes engañosos en campañas electorales desde enero 2025), AB 2355 (exige divulgación en anuncios políticos con IA) y SB 926 (amplía ‘revenge porn’ a deepfakes no consensuados). Nueva Jersey por su parte penaliza hasta con 5 años de prisión la creación/difusión de deepfakes engañosos.

China adoptó en marzo de 2025 las ‘Medidas para la Identificación de Contenido Sintético Generado por IA’, en vigor desde septiembre, obligando al etiquetado explícito e implícito (metadata, watermarking) en texto, imágenes, audio y vídeo para prevenir desinformación. Las plataformas deben revisar y añadir avisos de riesgo, alineándose con medidas previas contra deep synthesis.

En América Latina, los avances son incipientes: México presentó en abril 2025 la ‘Ley Federal para el Desarrollo Ético, Soberano e Inclusivo de la IA’, regulando transparencia y titularidad en creaciones IA. Brasil y Uruguay lideran con estrategias nacionales, pero faltan leyes específicas contra desinformación; Chile y Colombia debaten marcos éticos.

Globalmente, el Foro Económico Mundial y ONU destacan la desinformación IA como riesgo mayor, impulsando convergencia: etiquetado obligatorio y watermarking como estándares emergentes, aunque su aplicación desigual deja vulnerables regiones en desarrollo.

Estas regulaciones buscan equilibrar el fomento a la innovación con la protección de los ciudadanos; sin embargo, su efectividad real dependerá de una aplicación rigurosa y de revisiones periódicas que las adapten a los rápidos avances en inteligencia artificial. Para recuperar la confianza en la información digital, resulta esencial priorizar la transparencia en todos los procesos y hacerla obligatoria para las plataformas y desarrolladores.

(Con información de José Leggio Cassara)


dateando.com

Ver fuente