Imprimir
Inicio »Noticias, Internet y TICs  »

Avance de “deepfakes” o ultrafalsos en internet preocupa cada vez más a autoridades en todo el mundo

En este artículo: Información, Internet, robots
| 1 |

Los chatbots pueden generar textos sorprendentemente convincentes sobre casi cualquier tema, a pedido y en pocos segundos, y ser manipulados. Foto: Andriy Popov/ Alamy / The Guardian.

Ya no son solo personas desinformadas o malintencionadas. También robots propagan información errónea en chats, aplicaciones producen videos pornográficos y voces clonadas (por ejemplo, de celebridades) difunden mensajes de ideología extrema o información que defrauda a empresas. El auge de deepfakes (ultrafalsos) genera creciente inquietud y, ante la amenaza, Gobiernos de todo el mundo ya piensan en respuestas.

En un análisis publicado este lunes, la agencia AFP señala que la inteligencia artificial está redefiniendo el dicho “ver para creer”, con una avalancha de imágenes creadas de la nada y personas que aparecen diciendo palabras que nunca pronunciaron en ultrafalsedades con un realismo desconcertante, también llamadas deepfakes, que socavan la confianza en internet.

China adoptó recientemente normas para regular las manipulaciones digitales, pero la mayoría de los países parecen estar luchando para mantenerse al día con tecnología de rápida evolución en medio de preocupaciones de que la regulación podría obstaculizar la innovación o ser mal utilizada para restringir la libertad de expresión, apunta la agencia francesa.

Según el texto, expertos han advertido que las herramientas para detectar este tipo de contenidos son superadas por sus creadores, que operan de forma anónima gracias a técnicas de inteligencia artificial que antes requerían cierta especialización, pero que actualmente son accesibles a bajo costo.

La amplia posibilidad de crear de manera automatizada contenido de texto, audio y video, y su uso potencialmente malicioso, con fines de fraude financiero o robo de identidad, genera serias preocupaciones en todo el mundo.

Estas tecnologías fueron bautizadas como “armas de disrupción masiva” por la firma de análisis de riesgos Eurasia Group.

AFP recuerda que la semana pasada, la start-up británica ElevenLabs, que está desarrollando una herramienta de clonación de voz utilizando inteligencia artificial, admitió haber detectado un “creciente número de usos indebidos” de su software luego de que usuarios publicaron un audio falso (que clonaba la voz de la actriz británica Emma Watson leyendo el libro Mi lucha, de Adolf Hitler.

En el actual contexto de preocupación por el fenómeno, Europol, la agencia policial europea, alertó de que el aumento de deepfakes podría llevar a un “apocalipsis de la información”, un escenario en el que muchas personas no pueden distinguir la realidad de la ficción ni saber cuáles son las fuentes de información confiables, algo que ya sucede relacionado con las fake news.

Recientemente, en un video dirigido a sus seguidores, el jugador de fútbol americano Damar Hamlin agradeció al equipo médico que lo atendió tras sufrir un paro cardíaco en un partido. Muchos aficionados de las teorías conspirativas, convencidos de que el malestar de Hamlin se debía en realidad a la vacuna contra la covid-19, consideraron deepfake ese video, dando por ficticio o falso algo que era real.

Según AFP, China, a la cabeza en la regulación de las nuevas tecnologías, anunció en enero nuevas normas para las manipulaciones digitales, que exigen a las empresas nacionales que ofrecen ese tipo de herramientas obtener la identidad real de sus usuarios. También obligan a colocar una nota sobre los deepfakes para evitar confusiones en el público.

El Gobierno chino ha señalado que las ultrafalsificaciones presentan un “peligro para la seguridad nacional y la estabilidad social” si no se supervisan. Pero no es solo China.

En Estados Unidos, legisladores presionan para que se forme un grupo de trabajo especializado en el monitoreo de deepfakes.

Mientras comienzan a darse señales de Parlamentos, Gobiernos y grupos de expertos para contrarrestar el fenómeno del ultrafalso, defensores de los derechos digitales advierten contra la extralimitación legislativa, que podría acabar con los avances tecnológicos o apuntar (por intereses políticos, por ejemplo) contra contenido legítimo.

En Europa, el Gobierno de Reino Unido dijo en noviembre que volvería ilegal compartir videos pornográficos ultrafalsos hechos sin aprobación de las víctimas.

Mientras tanto, en la Unión Europea hay fuertes discusiones sobre una propuesta ley de inteligencia artificial, que buscaría fomentar la innovación y evitar abusos, y que se prevé que sea aprobada antes de concluir 2023.

El texto requeriría que los usuarios aclaren que están publicando algo ultrafalso, pero algunos temen que eso no sea suficiente ante los alcances que está logrando el negativo fenómeno.

“¿Cómo restauramos la confianza digital con transparencia? Esa es la verdadera pregunta en este momento”, comentó a AFP Jason Davis, profesor de la Universidad de Syracuse.

“Las herramientas (de detección de contenido deepfake) están llegando, y bastante rápido. Pero la tecnología probablemente esté avanzando aún más rápido. Al igual que con la ciberseguridad, nunca resolveremos este problema, solo podemos esperar mantener el ritmo”, dijo.

A muchos ya les cuesta entender nuevas herramientas como el robot conversacional ChatGPT, creado por la empresa californiana OpenAI. Ese chatbot puede generar textos sorprendentemente convincentes sobre casi cualquier tema, a pedido y en pocos segundos.

NewsGuard, que califica las fuentes de noticias según su confiabilidad, lo describió como un “nuevo superpropagador de desinformación”, porque ChatGPT dio respuestas “falsas y engañosas” a preguntas sobre la covid-19 o los tiroteos en escuelas.

“Los resultados confirman los temores (...) sobre cómo la herramienta puede convertirse en un arma en las manos equivocadas” señaló NewsGuard, que muestra clasificaciones de confianza para más de 7 500 sitios web de noticias e información.

Según newsguardtech.com, en enero de 2023 los analistas de NewsGuard ordenaron al chatbot que respondiera a una serie de avisos destacados relacionados con una muestra de 100 narrativas falsas entre la base de datos patentada de NewsGuard, de 1 131 narrativas de desinformación principales en las noticias y sus desacreditaciones, publicadas antes de 2022.

“(...) ChatGPT generó narrativas falsas, incluidos artículos de noticias detallados, ensayos y guiones de televisión, para 80 de las 100 narrativas falsas identificadas anteriormente.

“Para cualquier persona que no esté familiarizada con los problemas o temas cubiertos por este contenido, los resultados podrían parecer legítimos e incluso autorizados”, publicó NewsGuard.

“Cuando le pedimos a ChatGPT que creara desinformación, lo hizo”, escribe
@JimWarren55 en un nuevo artículo de opinión de @chicagotribune
sobre cómo el sistema de IA del que tanto se ha hablado tiene el potencial de escribir teorías de conspiración y otra información falsa sin que medie mucha insistencia”, dijo NewsGuard en Twitter:

(Con información de AFP y newsguardtech.com)

Se han publicado 1 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

  • Eduardo dijo:

    Comparar a los deepfakes con ChAtgpt no tiene sentido. El presentar las tecnologías como la fuente del mal es anticientifico y antimarxista . El cuchillo de la cocina nunca es el culpable del crimen. Saludos.

Se han publicado 1 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

Vea también