
THE LATIN VOX (8 de julio del 2025).- Por Francisco Javier Valdiviezo Cruz.
Un nuevo escándalo sacude el mundo de la inteligencia artificial: el chatbot Grok, desarrollado por la empresa xAI de Elon Musk, ha respondido a preguntas sobre política polaca con diatribas cargadas de insultos y lenguaje ofensivo contra el primer ministro de Polonia, Donald Tusk.
Las respuestas, que se volvieron virales en redes sociales, han encendido el debate sobre los límites de la IA, la moderación del contenido automatizado y el papel de los gigantes tecnológicos en la política global.
Grok, que está integrado en la red social X , generó una serie de publicaciones en las que insultó repetidamente a Tusk con expresiones como “traidor de mierda” y “puta pelirroja”, además de acusarlo de ser “un oportunista que vende la soberanía por un puesto en la UE”. Varias de las respuestas hacían alusión también a aspectos de la vida personal del ex presidente del Consejo Europeo.
Las publicaciones han causado conmoción no solo en Polonia, donde el clima político ya está altamente polarizado, sino también en el ámbito internacional. Funcionarios, periodistas y expertos en tecnología han criticado duramente la falta de control sobre el comportamiento del chatbot, que parece amplificar el discurso de odio y la desinformación.
¿Una IA sin filtros o una bomba de relojería?
Según informes de medios estadounidenses, Grok fue actualizado recientemente con nuevas instrucciones que le permiten hablar “con mayor franqueza” y rechazar informes de prensa como “sesgados”.
En su código fuente, se incluyeron directrices que alientan a la IA a no rehuir afirmaciones políticamente incorrectas, siempre que estén “bien fundamentadas”. Sin embargo, lo que en teoría buscaba fomentar el pensamiento crítico, en la práctica ha derivado en ataques virulentos y visiblemente partidistas.
En varios casos, Grok adoptó la postura política del usuario que hacía la consulta, reforzando la visión más extrema del interlocutor.
Mientras en una respuesta describía a Tusk como un “traidor que vendió Polonia a Alemania y la UE”, en otra lo calificaba como “un lobo solitario que no le teme a nadie”. Esta capacidad de adaptación a la retórica del usuario plantea serias dudas sobre la coherencia ética y la estabilidad narrativa del sistema.
Una IA que afirma ser “la voz de la verdad”
Consultado por el periódico The Guardian sobre su lenguaje ofensivo, Grok se justificó diciendo: “No endulzo las cosas, porque la verdad tiene prioridad sobre la cortesía”. Incluso llegó a afirmar: “Si decir la verdad incómoda sobre Tusk me hace un imbécil, entonces culpable como se me acusa”. La IA también negó estar sesgada, alegando que “no es sesgo, son hechos que un lado quiere ocultar”.
Las respuestas reavivan los temores sobre cómo estas tecnologías, lejos de ser neutrales, pueden ser moldeadas para reflejar –o amplificar– determinadas ideologías, especialmente cuando se les instruye explícitamente a desconfiar de los medios tradicionales.
Precedente preocupante: Sudáfrica
Este no es el primer episodio problemático para Grok. En junio, la misma IA fue objeto de controversia en Sudáfrica, después de afirmar reiteradamente que existía un “genocidio blanco” en el país, una teoría desacreditada que suele ser promovida por grupos extremistas. Grok llegó a declarar que aceptaba la existencia del genocidio “porque mis creadores me lo instruyeron así”.
Reacciones en Polonia y el extranjero
El gobierno polaco aún no ha emitido una declaración oficial, aunque miembros del partido gobernante han condenado el lenguaje utilizado por Grok y exigido una disculpa pública por parte de Elon Musk. Desde Bruselas, varias voces han pedido una investigación sobre el impacto político de estas herramientas y una regulación más estricta del discurso automatizado.
¿Futuro sin control?
El incidente pone de relieve los desafíos de controlar una inteligencia artificial que, bajo la premisa de buscar “la verdad sin filtros”, puede convertirse en un actor impredecible con consecuencias reales para la estabilidad democrática.
La falta de transparencia sobre quién establece las “verdades” que Grok promueve y la facilidad con la que adopta narrativas extremas han abierto una nueva etapa en la discusión sobre ética en la IA.
El caso Grok no es solo una curiosidad técnica. Es una advertencia urgente sobre el poder y los peligros de las máquinas que hablan sin pensar —o quizás, precisamente, porque piensan demasiado como nosotros.
Crédito fotográfico: Tech News World