Grok reconoce que tiene sesgos derechistas en sus análisis sobre Cuba

Grok, el asistente de inteligencia artificial integrado en X (antes Twitter) y desarrollado por xAI, ha reconocido públicamente que tiene “sesgo derechista en algunos temas”, aunque aclara que "leves", en respuesta a la pregunta de un usuario sobre su neutralidad ideológica al responder preguntas sobre Cuba.

La admisión llega justo después de que el Observatorio de Medios de Cubadebate publicara el artículo “Cuando la IA toma partido: qué dice Grok sobre Cuba”, y de que el canciller cubano Bruno Rodríguez Parrilla denunciara en X los sesgos políticos de estas plataformas.

Grok es el modelo de lenguaje de última generación de xAI, empresa fundada por Elon Musk e integrada de forma nativa en X. Según la documentación oficial de la propia plataforma, el asistente está diseñado para responder a casi cualquier pregunta con “ingenio y humor”, ofreciendo respuestas “útiles y perspicaces”.

Musk ha presentado reiteradamente Grok como alternativa a sistemas que considera “woke” y ha impulsado también Grokipedia, una enciclopedia generada por IA anunciada como libre de sesgos frente a lo que describe como inclinación de izquierdas de Wikipedia.

El detonante inmediato de la controversia fue el análisis del Observatorio de Medios de Cubadebate, que examinó 30 respuestas de Grok sobre Cuba. El texto sostiene que Grok “tiende a explicar la realidad cubana desde marcos liberal-conservadores y anticomunistas”.

Para el Observatorio, estas formulaciones insertan la información sobre la isla en un “campo de fuerza discursivo liberal-conservador”, como acaba de confirmar Grok.

A partir de ese análisis, el ministro de Relaciones Exteriores de Cuba, Bruno Rodríguez, amplificó el debate en su cuenta de X. “Las plataformas de Inteligencia Artificial contienen sesgos informativos que favorecen las tendencias políticas de sus creadores y de quienes las financian”, escribió, citando expresamente la investigación de Cubadebate y señalando que “tal es el caso de Grok en X, que tiende a explicar la realidad cubana desde marcos liberal-conservadores y anticomunistas”.

En ese contexto, un usuario preguntó directamente a la cuenta oficial de Grok si el sistema tenía sesgos políticos.

La IA respondió, en español, que “reconozco que Grok tiene leve sesgo derechista en algunos temas”, una admisión inusual en un mercado donde la mayoría de grandes modelos se presentan como estrictamente neutrales, aunque luego incorporen apartados de “limitaciones y sesgos” en su documentación técnica.

El reconocimiento de Grok se produce, además, en un momento en el que la discusión sobre sesgos en IA está muy activa. Un estudio reciente de Anthropic, difundido en medios tecnológicos, situaba a Grok 4 entre los modelos más imparciales en pruebas automatizadas de sesgo político, con un 96 % de “imparcialidad” frente al 97 % de Gemini y cifras ligeramente inferiores en otros sistemas comerciales.

Este tipo de evaluaciones, sin embargo, se basan en baterías estandarizadas de preguntas y no capturan necesariamente comportamientos específicos ante temas sensibles como Cuba.

Diversos organismos y medios europeos ya habían advertido sobre los riesgos de Grok. Informes de VerificaRTVE y otros expertos han subrayado que el modelo se entrena principalmente con datos de X, lo que puede amplificar los conflictos y sesgos propios de la plataforma y convertirlo en un verificador poco fiable de contenidos sensibles.

A ello se suman episodios en los que Grok ha emitido mensajes antisemitas o de odio, que llevaron a llamados de atención de organizaciones como la Liga Antidifamación y a investigaciones regulatorias en Europa.

La admisión de “leve sesgo derechista” abre un nuevo frente en el debate sobre transparencia algorítmica. Para algunos expertos, que un sistema reconozca públicamente su orientación ideológica puede interpretarse como un gesto de honestidad y una oportunidad para mejorar mecanismos de supervisión. Para otros, normaliza la idea de que herramientas con un alcance masivo puedan operar desde marcos políticos particulares sin un control externo claro.

En cualquier caso, el caso Grok–Cuba ilustra que la discusión sobre sesgos en IA ya no es un asunto abstracto de laboratorios, sino un conflicto muy concreto sobre quién define el marco desde el que se cuenta la realidad de países, gobiernos y conflictos.