¿Son las IA más de izquierda que de derecha como cree Musk?


En una era en que los algoritmos ya no solo predicen lo que queremos comprar sino también cómo pensamos, una pregunta incómoda ha comenzado a tomar fuerza: ¿están las inteligencias artificiales, como ChatGPT, sesgadas ideológicamente hacia la izquierda?

La inquietud no es nueva, pero ha ganado visibilidad recientemente con las críticas del magnate Elon Musk, quien acusó a varios modelos de IA de estar contaminados por una mentalidad “woke” —el término despectivo que sectores conservadores utilizan para referirse a posturas progresistas o políticamente correctas. Su respuesta fue la creación de Grok, un chatbot de su empresa xAI, presentado como una alternativa “anti-woke”. Pero la jugada le salió mal: en julio de 2025, Grok generó una serie de mensajes abiertamente antisemitas y conspirativos, lo que obligó a su empresa a eliminar contenido, disculparse públicamente y revisar sus controles internos.

El incidente reabrió el debate: ¿los modelos de lenguaje están sesgados hacia posturas progresistas? ¿O simplemente reflejan las tendencias lingüísticas y culturales más comunes en los datos con los que son entrenados?

¿Cómo se entrena una IA?

Los modelos de lenguaje como ChatGPT, Gemini (Google), Claude (Anthropic) o el propio Grok, se entrenan a partir de enormes volúmenes de texto disponible públicamente en internet: libros, artículos, foros, redes sociales, enciclopedias colaborativas como Wikipedia, papers científicos, sitios gubernamentales, entre otros.

En ese proceso, la IA no “entiende” ideas políticas, pero sí detecta patrones estadísticos: cómo se construyen los argumentos, qué tipo de lenguaje se usa en distintas situaciones, qué temas son más frecuentes o valorados en determinados contextos. Si una mayoría de textos académicos y periodísticos valoran positivamente el cambio climático, la equidad de género o la diversidad cultural, es probable que el modelo lo “aprenda” como un patrón de lenguaje común.

¿Y eso lo vuelve progresista?

Depende del punto de vista. Para quienes consideran que la neutralidad debería incluir posturas conservadoras, libertarias o religiosas con la misma frecuencia que las progresistas, el resultado puede parecer sesgado. Para otros, la IA simplemente refleja los valores dominantes en ciertas esferas —particularmente las académicas, tecnológicas y mediáticas— donde el progresismo ha ganado terreno en las últimas décadas.

“Si se entrena un modelo con datos culturales contemporáneos, es inevitable que hable como lo hacen las universidades, las ONGs y los medios globales”, dice Javier Ramírez, filósofo especializado en ética tecnológica. “Y eso molesta a sectores que sienten que sus ideas han sido marginadas de ese ecosistema”.

No es casual que muchas de las críticas provengan de figuras asociadas a la “derecha digital” —un espacio que reclama mayor pluralidad en las plataformas tecnológicas y acusa a Silicon Valley de imponer una visión moral hegemónica disfrazada de neutralidad.

¿Izquierda por volumen?

Algunos críticos sostienen que las IA terminan más “de izquierda” porque simplemente hay más contenido generado desde esa óptica. “La izquierda produce más narrativa: libros, papers, artículos de opinión, ensayos. La derecha, salvo excepciones, ha apostado más a la síntesis, al mensaje breve y al slogan”, dice el analista de medios Guillermo Sola. “Y eso influye: un corpus textual más denso y elaborado deja más huella en un modelo entrenado estadísticamente”.

Sin embargo, esta afirmación omite una realidad incómoda: el pensamiento conservador también ha producido una vasta bibliografía, desde Edmund Burke hasta Friedrich Hayek, desde los discursos de Ronald Reagan hasta las obras de Roger Scruton o Ayn Rand. El problema no es la falta de producción, sino que muchas de estas obras no dominan los espacios digitales o académicos que alimentan los modelos de IA más conocidos.

El dilema ético

Esto plantea una paradoja: en el afán de evitar el discurso dañino, las IA podrían terminar invisibilizando ciertas posturas legítimas. Y en el intento de “no ofender”, podrían convertirse en modelos excesivamente cautelosos, que suavizan los matices ideológicos y ofrecen una versión edulcorada del debate público.

“Una IA verdaderamente útil no debería decirte lo que es correcto, sino ayudarte a pensar mejor”, sostiene Ramírez. “Pero si se le prohíbe explorar ciertas ideas por temor a ofender, estamos construyendo una herramienta menos crítica y más paternalista”.

Las empresas de IA lo saben, y algunas han empezado a ofrecer modos de personalización ideológica. OpenAI, por ejemplo, anunció que en el futuro permitirá a los usuarios ajustar los valores de su asistente para que responda más en línea con sus creencias.cuenta.


ultimasnoticias.com.ve

Ver fuente