Imprimir
Inicio »Especiales, Medios  »

De un grupo privado en Facebook a la calle

| 7 |

El 10 de julio de 2021 circuló en un grupo privado de Facebook llamado “La Villa del Humor” un mensaje de convocatoria a concentrarse al día siguiente en San Antonio de los Baños. Este tipo de publicaciones sugiere un uso del grupo como canal de coordinación inmediata —hora, lugar e instrucciones básicas—, más allá del intercambio cotidiano propio de una comunidad local.

En la reconstrucción que hace el medio estadounidense MintPress News, ese tipo de mensajes no fue un ruido marginal: fue parte del dispositivo que precedió a las protestas del 11 de julio de 2021 en Cuba y que luego proyectó nuevas convocatorias. El diario digital aporta información verificable por terceros, como las capturas de post fechadas e identificados sus usuarios, algunos todavía activos en Facebook.

En ese mismo artículo aparece una frase que funciona como bisagra interpretativa —y conviene tratarla como cita-guía— porque no discute solo Cuba, sino la escala del fenómeno:

“la participación de ciudadanos extranjeros en los asuntos internos de Cuba llega a un nivel difícil de concebir en Estados Unidos: incluso los más fervientes defensores del “RusiaGate” no llegan a afirmar que los rusos planificaran directamente las protestas por George Floyd o la insurrección del 6 de enero.”

Independientemente de lo que se piense de la tesis de MintPress (y de sus implicaciones políticas), el caso sirve para plantear una pregunta empírica que hoy atraviesa los debates sobre las plataformas sociales: ¿qué ocurre cuando Facebook —y su ecosistema (Instagram, WhatsApp)— deja de ser “medio” y se convierte en infraestructura de movilización política?

Para responder sin consignas, vale comparar tres escenarios con documentación abundante y muy distinta: Cuba (2021) como ejemplo de coordinación comunitaria impulsada desde el exterior; Brexit como laboratorio de microsegmentación y publicidad opaca; y Myanmar como caso extremo de incitación masiva en una red que, de facto, operó como plaza pública nacional.

1) Cuba (2021): cuando un “grupo local” actúa como cuarto de máquinas

En el relato de MintPress, La Villa del Humor nació como tablón comunitario de San Antonio de los Baños y, con el tiempo, se transformó en un espacio de agitación política, con presencia relevante de perfiles ubicados fuera de Cuba (especialmente en Florida) y con administradores que residían en Estados Unidos.

El elemento distintivo no es la existencia de crítica o malestar —algo común en cualquier sociedad—, sino el formato: un grupo privado, moderado, que puede filtrar miembros, consolidar mensajes, coordinar horarios y difundir instrucciones logísticas.

MintPress sostiene además que, tras el 11J, el mismo entramado promovió nuevas acciones y una narrativa de continuidad (“esto es solo el comienzo”). El artículo ofrece evidencia periodística observacional (acceso al grupo, capturas, actividad interna), que muestra actividad de dirección mayoritariamente desde Estados Unidos, incluyendo un usuario cuya biografía lo ubica como trabajador del diario derechista de la Florida, The Miami Herald.

Pero lo más sólido es el patrón: Facebook como “sala de coordinación” para convertir conversación política en acción sincronizada.

2) Brexit: la política como publicidad dirigida y “zonas ciegas” de transparencia

El caso del Brexit (la salida del Reino Unido de la Unión Europea, tras referendo el 23 de junio de 2016) no es idéntico al de Cuba: aquí el centro no fue una convocatoria explícita a la calle desde un grupo privado, sino una batalla por el sentido (y por la conducta electoral) mediante segmentación, datos y anuncios.

El Parlamento británico, a través del Comité de Digital, Culture, Media and Sport (DCMS), dedicó una investigación extensa a desinformación, plataformas y opacidad en el entorno del referéndum y campañas asociadas, con críticas explícitas a la falta de cooperación y a los déficits de rendición de cuentas del ecosistema digital.

En paralelo, la Information Commissioner’s Office (ICO) publicó su investigación sobre el uso de analítica y datos en campañas políticas, donde abordó prácticas, riesgos y lagunas regulatorias que hicieron posible una esfera de persuasión personalizada difícil de auditar.

En ese contexto, dos elementos son relevantes:

  • Publicidad política dirigida (incluidas modalidades opacas o “dark ads”): anuncios que pueden mostrarse a segmentos específicos sin el escrutinio público propio de la propaganda tradicional. El debate en Reino Unido sobre estas prácticas se intensificó hasta el punto de que Facebook introdujo medidas de verificación y transparencia para anuncios políticos en el país.
  • Intervención regulatoria y sanciones: la Comisión Electoral británica sancionó a Leave.EU (la campaña de salida de la Unión Europea capitaneada por el ex líder del Ukip Nigel Farage y por el multimillnario Arron Banks) por múltiples infracciones de la ley electoral, evidenciando que la dimensión digital no fue un “ruido”, sino un espacio donde se detectaron conductas sancionables.

El impacto causal exacto de la microsegmentación sobre el resultado del referéndum es difícil de fijar como variable única. Lo empíricamente robusto es la constatación de un modelo de campaña apoyado en plataformas sociales que funcionó como estrategia de guerra psicológica contra la población civil: segmentación, opacidad parcial, incentivos a mensajes emocionales y, sobre todo, asimetría de información entre quien paga/dirige y quien recibe.

También se ha documentado ampliamente que Steve Bannon, quien dirigió la campaña de Donald Trump a la presidencia en 2016, funcionó como emprendedor transnacional del ecosistema populista pro-Brexit, con vínculos políticos y mediáticos con actores británicos y con conexiones en el universo que vinculó el escándalo de Cambridge Analytica con Facebook.

3) Myanmar: cuando Facebook es el espacio público y el conflicto se “optimiza”

Myanmar muestra el reverso más duro: no la influencia electoral, sino la movilización social hacia la violencia. Aquí la pregunta no es si una campaña cambió algunos puntos de intención de voto, sino cómo una plataforma puede amplificar hostilidad colectiva a escala nacional.

Meta (entonces Facebook) anunció en 2018 la eliminación de cuentas y páginas vinculadas al ejército de Myanmar por coordinated inauthentic behavior (comportamiento inauténtico coordinado), describiendo redes que operaban como entretenimiento e información, pero estaban conectadas a estructuras militares. La advertencia llegó tarde.

La investigación internacional —incluyendo el informe de la Misión Independiente de Determinación de los Hechos de Naciones Unidas— abordó el contexto de graves violaciones y el papel del entorno informacional, mientras múltiples informes de derechos humanos analizaron cómo la plataforma contribuyó a la difusión de odio y a la degradación del espacio cívico.

Amnistía Internacional, por ejemplo, ha sostenido que los sistemas de Facebook y sus incentivos de crecimiento y amplificación contribuyeron de forma sustantiva al daño contra la población rohingya, señalando responsabilidades estructurales (moderación insuficiente, algoritmos de recomendación, priorización del engagement).

En Myanmar, Facebook no fue simplemente “un canal”. En la práctica, se convirtió en infraestructura nacional de información, y eso hizo que el conflicto —y la propaganda— se adaptaran a sus reglas: viralidad, polarización, simplificación identitaria y campañas coordinadas.

De acuerdo con Médicos sin Fronteras, al menos 6.700 rohinyás fueron asesinados en un mes (del 25 de agosto al 24 de septiembre de 2017), incluyendo unos 730 niños menores de 5 años.  MSF estima al menos 9.000 muertes en ese periodo, “la mayoría por violencia”.

Tres casos, un mismo núcleo: Facebook como infraestructura transnacional

Compararlos permite aislar un patrón importante:

1) Comunidades cerradas (Cuba).

    • Mecanismo dominante: "grupo privado + moderación + coordinación logística".
    • Riesgo político:  la frontera entre “emigración interesada” e injerencia organizada se vuelve difusa cuando la coordinación ocurre fuera del territorio,

2) Persuasión microdirigida (Brexit)

    • Mecanismo dominante: anuncios segmentados, opacidad parcial y auditoría difícil.
    • Riesgo político: desigualdad informativa y erosión de la deliberación pública (“cada quien ve un país distinto en su feed”).

3) Amplificación del odio (Myanmar)

    • Mecanismo dominante: redes coordinadas + amplificación + fallas de gobernanza/seguridad.
    • Riesgo político: cuando el algoritmo premia lo incendiario, la violencia puede generar efecto contagio.

Lo decisivo es que en los tres escenarios se repite la misma estructura: bajos costos de coordinación política con posibilidades de generar violencia, capacidad de segmentar o modular audiencias, y una arquitectura donde la evidencia pública suele llegar tarde (cuando la crisis se ha desatado, aparecen las sanciones, expulsiones o comisiones parlamentarias).

La pregunta incómoda que dejan los tres casos

La frase destacada del artículo sobre Cuba —la comparación con RusiaGate y con protestas internas en EE. UU.— introduce un problema político de fondo: la soberanía informacional ya no se disputa solo con medios públicos o con diplomacia tradicional; se disputa en capas privadas de plataformas globales.

Eso no significa que toda movilización digital sea “orquestada”, ni que toda la emigración sea rehén de una “operación” orquestada desde el exterior. Significa que las plataformas han reducido drásticamente la distancia entre influencia y acción, y han creado un terreno donde actores externos (Estados, consultoras, redes ideológicas, emigración) pueden intervenir con una mezcla de anonimato, velocidad y escala antes impensable.

En los próximos años, el debate no será si Facebook “influye” —eso ya es trivial—, sino quién responde, con qué evidencia, y bajo qué reglas cuando esa influencia se traduce en movilización, desinformación o violencia.

Se han publicado 7 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

  • Abel dijo:

    Bueno eso se sabe que facebook no es neutral y además crea segmentación política y cultural de grupos unidos por mismos intereses y creencias eso es peligro pues crea polarización política y parece que todos apoyan tus creencias y no es asi es solo el algoritmo y tus propias creencias eso al final lo que crea es extremismo ideologicos y bandos es disputa además de que el algoritmo amplifica los mensajes a la violencia y publicaciones banales solo por los me gusta y interacciones.

  • sachiel dijo:

    De que influye, influye... igual que Whatsapp, y otras redes y chats. pero los que empujan, nunca se darán golpes, a menos que los reciban voluntariamente para amplificar más todavía el ruido mediático contra Cuba o cualquier otro país no conveniente...

    ¿..quién responde, con qué evidencia, y bajo qué reglas cuando esa influencia se traduce en movilización, desinformación o violencia...? Busquen solamente en las redes cuantos declarados con nombres y apellidos reales hay, y cuantos con nicks o bots artificiales, ahí está la respuesta, evidencias y trazabilidad.

  • Lázaro Ernesto dijo:

    Creo que este artículo construye una tesis sólida al desplazar el debate desde la “opinión” hacia los mecanismos verificables: cómo un entorno de plataforma (grupos privados, microsegmentación publicitaria, recomendaciones algorítmicas) puede operar como infraestructura de coordinación, persuasión o escalada del conflicto.

    Su principal acierto es el enfoque comparativo (Cuba–Brexit–Myanmar), que permite distinguir tres lógicas operativas distintas, como la coordinación logística en comunidades cerradas, propaganda electoral microdirigida y amplificación de odio, sin reducirlas a una explicación única.

    Realmente, es otro ejemplo muy bueno. El Observatorio de Medios de Cubadebate está haciendo historia. Deberían hacer un dossier o un libro con estos análisis, que pueden ser un instrumento de trabajo para investigadores de redes.

  • Jorge dijo:

    Excelente, muy demostrativo. Nunca ha habido ingenuidad, siempre cálculo y manipulación aprovechando al máximo la situación económica de Cuba u otras situaciones específicas en otras partes. Hace falta masa crítica, cuando está ausente los que empujan ganan.
    Malcom X vigente, "Si no estáis prevenidos ante los medios de comunicación, os harán amar al opresor y odiar al oprimido."

  • Holos dijo:

    Informes de ciberseguridad del 2025 indican que un 35-40% del tráfico en la red son bots maliciosos.

  • Barto dijo:

    De especial relevancia en el éxito del Brexit, en el triunfo de Donald Trump en su primer mandato o de Mauricio Macri en las presidenciales argentinas fueron los servicios de la empresa Cambridge Analitys, que se hizo en Facebook con el perfil de millones de usuarios para poder ofrecerles pellets informativos personalizados y redirigirlos a direcciones donde recibirían los últimos retoques informáticos para que lo impensable acabara haciéndose realidad y fuera muy difícil rectificar, como estamos viendo en Reino Unido, Argentina y Estados Unidos.

    La manipulación informativa logró su objetivo pero algunos se empeñan en seguir llamándolo libertad y democracia.

  • Reinaldo B. Santiesteban dijo:

    Estaré vigilando, eso es.

Se han publicado 7 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

Observatorio de Medios de Cubadebate

Observatorio de Medios de Cubadebate

Equipo multidisciplinario que investiga cómo se construye el relato sobre Cuba en las plataformas digitales

Vea también