Imprimir
Inicio »Noticias, Medios  »

Grok reconoce que tiene sesgos derechistas en sus análisis sobre Cuba

| 12

Grok, el asistente de inteligencia artificial integrado en X (antes Twitter) y desarrollado por xAI, ha reconocido públicamente que tiene “sesgo derechista en algunos temas”, aunque aclara que "leves", en respuesta a la pregunta de un usuario sobre su neutralidad ideológica al responder preguntas sobre Cuba.

La admisión llega justo después de que el Observatorio de Medios de Cubadebate publicara el artículo “Cuando la IA toma partido: qué dice Grok sobre Cuba”, y de que el canciller cubano Bruno Rodríguez Parrilla denunciara en X los sesgos políticos de estas plataformas.

Grok es el modelo de lenguaje de última generación de xAI, empresa fundada por Elon Musk e integrada de forma nativa en X. Según la documentación oficial de la propia plataforma, el asistente está diseñado para responder a casi cualquier pregunta con “ingenio y humor”, ofreciendo respuestas “útiles y perspicaces”.

Musk ha presentado reiteradamente Grok como alternativa a sistemas que considera “woke” y ha impulsado también Grokipedia, una enciclopedia generada por IA anunciada como libre de sesgos frente a lo que describe como inclinación de izquierdas de Wikipedia.

El detonante inmediato de la controversia fue el análisis del Observatorio de Medios de Cubadebate, que examinó 30 respuestas de Grok sobre Cuba. El texto sostiene que Grok “tiende a explicar la realidad cubana desde marcos liberal-conservadores y anticomunistas”.

Para el Observatorio, estas formulaciones insertan la información sobre la isla en un “campo de fuerza discursivo liberal-conservador”, como acaba de confirmar Grok.

A partir de ese análisis, el ministro de Relaciones Exteriores de Cuba, Bruno Rodríguez, amplificó el debate en su cuenta de X. “Las plataformas de Inteligencia Artificial contienen sesgos informativos que favorecen las tendencias políticas de sus creadores y de quienes las financian”, escribió, citando expresamente la investigación de Cubadebate y señalando que “tal es el caso de Grok en X, que tiende a explicar la realidad cubana desde marcos liberal-conservadores y anticomunistas”.

En ese contexto, un usuario preguntó directamente a la cuenta oficial de Grok si el sistema tenía sesgos políticos.

La IA respondió, en español, que “reconozco que Grok tiene leve sesgo derechista en algunos temas”, una admisión inusual en un mercado donde la mayoría de grandes modelos se presentan como estrictamente neutrales, aunque luego incorporen apartados de “limitaciones y sesgos” en su documentación técnica.

El reconocimiento de Grok se produce, además, en un momento en el que la discusión sobre sesgos en IA está muy activa. Un estudio reciente de Anthropic, difundido en medios tecnológicos, situaba a Grok 4 entre los modelos más imparciales en pruebas automatizadas de sesgo político, con un 96 % de “imparcialidad” frente al 97 % de Gemini y cifras ligeramente inferiores en otros sistemas comerciales.

Este tipo de evaluaciones, sin embargo, se basan en baterías estandarizadas de preguntas y no capturan necesariamente comportamientos específicos ante temas sensibles como Cuba.

Diversos organismos y medios europeos ya habían advertido sobre los riesgos de Grok. Informes de VerificaRTVE y otros expertos han subrayado que el modelo se entrena principalmente con datos de X, lo que puede amplificar los conflictos y sesgos propios de la plataforma y convertirlo en un verificador poco fiable de contenidos sensibles.

A ello se suman episodios en los que Grok ha emitido mensajes antisemitas o de odio, que llevaron a llamados de atención de organizaciones como la Liga Antidifamación y a investigaciones regulatorias en Europa.

La admisión de “leve sesgo derechista” abre un nuevo frente en el debate sobre transparencia algorítmica. Para algunos expertos, que un sistema reconozca públicamente su orientación ideológica puede interpretarse como un gesto de honestidad y una oportunidad para mejorar mecanismos de supervisión. Para otros, normaliza la idea de que herramientas con un alcance masivo puedan operar desde marcos políticos particulares sin un control externo claro.

En cualquier caso, el caso Grok–Cuba ilustra que la discusión sobre sesgos en IA ya no es un asunto abstracto de laboratorios, sino un conflicto muy concreto sobre quién define el marco desde el que se cuenta la realidad de países, gobiernos y conflictos.

Se han publicado 12 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

  • Holos dijo:

    No es después del artículo de este medio. Es que después hicieron los promts adecuados con ese fin. Yo lo hice con Deekseek en otro tema. Y habló lo que llamó la creación de un "universo paralelo" en la administración e Trump para sus trampas como la incautacion del petrolero americano. Pero la donde queria. Es como tu estés conversando con una persona y le demuestres con hechos y evidencias tu razón. Lleva tiempo. Pero no es por el artículo anterior. De hecho, todas las IA lo hacen. No solo Grok.

    • Tomas dijo:

      Muchísimas gracias por su aclaración.

    • George Lucas dijo:

      Exactamente. Si le preguntas desde un tono neutral a cualquiera de los chatbots, te van a dar respuestas que corresponden a los medios que le enseñaron durante su entrenamiento, que no suelen ser neutrales y en buena parte, son de aquellos harto conocidos como contrarrevolucionarios

  • Observatorio de Medios de Cubadebate dijo:

    Es verdad que el comportamiento de cualquier IA depende mucho de cómo se le pregunten las cosas. Pero el punto del artículo no se basa en un solo “prompt bien hecho”, sino en 30 respuestas distintas, a usuarios y preguntas diferentes, analizadas antes de este intercambio. Ahí es donde se ve el patrón: marcos liberal-conservadores recurrentes al hablar de Cuba (minimizar el bloqueo, presentar el socialismo como fracaso estructural, etc.).

    Que todas las IAs tengan sesgos es precisamente el problema de fondo. Lo relevante aquí es que, además de poder documentar ese patrón, Grok reconoce explícitamente un “sesgo derechista en algunos temas”, por más que diga que es "leve". Más que una reacción mecánica a un artículo concreto, es un caso de estudio de cómo esos sesgos se cuelan en sistemas que ya influyen en la conversación pública global.

    • Jairon dijo:

      Con todo respeto qué más da el sesgo Si todos tenemos un sesgo o sea para un lado o para el otro Eso da lo mismo lo que hay que evaluar objetivamente y con pensamiento crítico si lo que la guía está diciendo se corresponde a la realidad objetiva o no. Nada más por supuesto No vamos a tomar su verdad como una certeza absoluta ni las verdades ninguna inteligencia artificial eso es absurdo ni las verdades de nadie. Es evaluar si es objetivo o verdadero a pesar del sesgo. Todos tenemos un sesgo mayor o menor Pero es imposible no tenerlo.

  • Holos dijo:

    Se entiende el mensaje en su sentido general. Pero en particular este último artículo da entender que Grok reconoció el asunto porque "La admisión llega justo después de que...". Y la razon es que el Observatorio aparentemente hizo una ingeniería de Contexto con las preguntas adecuadas para ese fin. Lo cual es válido. Porque la contextualizacion de un asunto puede poner en evidencia el SYSYEM Prompt de esa IA. En ese caso yo le sugiero realizar estudios de ingeniería de Contexto para promover el uso adecuado de las IA.

    • Observatorio de Medios de Cubadebate dijo:

      Gracias por el matiz, es importante. El artículo señala la secuencia temporal (“justo después de…”) pero no sostiene que haya una relación mecánica de causa-efecto entre el texto de Cubadebate y la respuesta de Grok. El punto central es que, antes de ese intercambio, el Observatorio ya había analizado 30 respuestas distintas (de usuarios y contextos diferentes) donde aparecía un patrón bastante consistente de marcos liberal-conservadores al hablar de Cuba.

      Lo que tú llamas “ingeniería de contexto” es precisamente una herramienta útil: bien usada, permite poner al descubierto el system prompt y los sesgos estructurales del modelo. Coincido en que hacen falta más estudios de ese tipo, no solo para Grok sino para todas las IAs. Pero el hecho de que, tras ese contexto y ese debate público, la propia IA admita un sesgo derechista en algunos temas convierte este caso en un ejemplo muy ilustrativo del problema que estamos intentando discutir.

      • Holos dijo:

        No
        Apartandonos de esa presunta logica medio-consumidor. Este artículo da para mas. Y pueden hacer otros estudios relacionados con el asunto. En mis testing de IA: Gemini, Deekseek, Perplexity, Qwent todas tienen sesgos cuando de temas políticos y conexos se trata. Y cuando se contextualiza hay algunas que ceden. Otras como Perplexity se tranca. Recién ha salido un artículo que Trump está intentando centralizar la industria de IA: Es un tsunami legal y corporativo.
        Con las IA es una buena plataforma para hacer un llamado a la contextualizacion de temas que es un problema en el debate público.

      • Observatorio de Medios de Cubadebate dijo:

        Totalmente de acuerdo en que el tema da para mucho más que una “lógica medio-consumidor”. Este artículo es solo una primera fotografía de un caso muy concreto (Cuba + Grok + admisión de “sesgo derechista”), pero el siguiente paso lógico es justamente lo que propones: estudios comparativos y sistemáticos entre modelos (Gemini, Perplexity, etc.) y escenarios políticos distintos.

        También coincidimos en el punto de fondo: todas las IAs arrastran sesgos cuando entran en terreno político, y la contextualización (lo que llamas “ingeniería de contexto”) es clave para ponerlos en evidencia. El caso de Grok es interesante porque combina tres cosas: un país como Cuba, un modelo vinculado a X/Elon Musk y una admisión explícita de sesgo.

        Y sí, el intento de Trump de "reordenar " la industria de la IA muestra que esto no es solo un problema técnico, sino geopolítico y regulatorio. Precisamente por eso, usar estos casos para promover la contextualización crítica en el debate público —y no consumir respuestas de IA como si fueran “verdad neutra”— debería ser parte central de la discusión.

  • Luis dijo:

    Sesgo realista, la inmensa mayoría de las sociedades del mundo tienen sesgo derechistas, esa es la realidad evidente.

    • Tea Caujerí dijo:

      Gracias sobre todo a la sostenida campaña de màs de un siglo de la élite capitalista mundial contra la izquierda.
      Por esa misma causa, en su momento, fue que Fidel expresó porque no podía decir desde el 1ero de enero de 1959 que en Cuba se debía comenzar a construir el socialismo. Sin embargo, en sociedades de construcción socialista viven hoy más de 1450 millones de personas...

      • Luis dijo:

        Muchos menos que hace 40 años atrás y contando a China, con un feroz capitalismo de estado, que ha creado cientos de millonarios y decenas de millones de proletarios explotados al por mayor

Se han publicado 12 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

Observatorio de Medios de Cubadebate

Observatorio de Medios de Cubadebate

Equipo multidisciplinario que investiga cómo se construye el relato sobre Cuba en las plataformas digitales

Vea también