Imprimir
Inicio » Noticias, Ciencia y Tecnología  »

Tecnología “deepfake”: Con esta herramienta solo debes escribir lo que quieras que alguien diga, “para que lo diga”

| 14 |

Fotograma de un video falso del expresidente estadounidense Barack Obama donde llama «completo idiota» a Donald Trump. Foto: Captura de pantalla del perfil en Youtube de Buzzfeed Video.

Científicos de la Universidad de Stanford, el Max Planck Institute for Informatics, la Universidad de Princeton y Adobe Research presentaron un software que permite a los usuarios editar el texto transcrito de una alocución para agregar, eliminar o cambiar las palabras de una persona en video.

En la presentación, que muestra los fragmentos originales de las frases y luego el trabajo del programa informático en el discurso, se aprecia el cambio, por ejemplo, cuando uno de los participantes dice: “I love the smell of napalm in the morning”—Me encanta el olor del napalm por la mañana—, y luego de aplicado el software: “I love the smell of french toast in the morning”—Me encanta el olor de las tostadas francesas por la mañana.

Este nuevo programa —que no se comercializa todavía— es una de las novedades de la tecnología deepfake, que revivió a La Mona Lisa, Marylin Monroe, Salvador Dalí y Albert Einstein, pero que desde hace un tiempo también dificulta cada vez más distinguir en internet qué es falso, y plantea un serio problema ético, cuando ya ha sido utilizada para desacreditar a figuras públicas importantes.

Nancy Pelosi, presidenta de la Cámara de Representantes, fue una de ellas. Rudy Giulliani, abogado de Donald Trump, compartió en Twitter un video modificado de la demócrata, en el que aparecía incoherente, tartamudeando y aparentemente ebria.

La representación fue vista por más de 2,4 millones de personas antes de que Facebook lo retirara de su fuente original, la cuenta de Political Watch Dog, por violar sus términos y condiciones.

Otro video relacionado con los deepfakes fue el difundido por Jordan Peele —director y guionista de cine, ganador de un Óscar—, quien imitó la voz del expresidente estadounidense Barack Obama diciéndole “completo idiota” a Trump, y la superpuso a un video original, para dar a conocer los riesgos políticos que podría tener esta tendencia.

Para crear estos videos el software aísla los fonemas que dice la persona en el discurso, y los combina con los visemas —las expresiones faciales que corresponden a cada sonido. Luego, crea un modelo en 3D de la parte inferior del rostro a partir del video original.

Los videos falsos producidos fueron vistos por un grupo de 138 voluntarios, de los cuales el 60 por ciento pensó que eran reales. El 80 por ciento afirmó que los cortes sin editar examinados eran legítimos, aunque los investigadores aclararon que esto tal vez se deba a que los participantes de la prueba sabían el propósito del experimento y podrían haber sido mediados por esto.

Hasta el momento los algoritmos usados solo funcionan con primeros planos, es decir, en videos donde solo se filme el busto de la persona, y requieren de 40 minutos de datos audiovisuales. No puede cambiarse el tono de la voz de la persona, y tampoco puede haber algún obstáculo visual en la grabación —que haya un saludo con las manos, por ejemplo—, porque el programa puede dejar de funcionar.

Los creadores dicen reconocen que personas con malas intenciones “pueden usar esta tecnología para falsificar declaraciones personales y calumniar a personas importantes”, y sugieren como remedio que, para prevenir cualquier confusión, este tipo de videos debería ser presentado como tal, a través de una marca de agua o con un contexto previamente creado donde el público sepa que es falso.


El software utiliza modelos en 3D del rostro para generar nuevas imágenes.

(Con información de The Verge e Infobae)

Se han publicado 14 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

  • Ernesto dijo:

    Eso es una beta o cuando más una versión inicial. Estoy seguro que en las próximas iteraciones viene sin restricciones y lo mismo te cambia al que da el discurso como que imita la voz…
    Es curioso como los creadores reconocen que personas malintencionadas pueden usar este software para calumniar a personas importantes o falsificar declaraciones… y eso me lleva a preguntar pa qué lo hicieron? Pa jugar? Esto tiene un solo fin y es suplantar lo que diga cualquier persona. Que no se hagan los estúpidos que sólo es pa eso…

    • K. dijo:

      Y que pasa si tus películas favoritas puedes verlas en cualquier idioma y los labios se encuentran sincronizados con la voz. Hay un millón de utilidades, sobre todo en el cine y la televisión donde este tipo de tecnologías automatiza el proceso. Imagínate tener a tus conductores de televisión favoritos, transmitiendo noticias para siempre, sin necesitarlos en vivo en el estudio. Automatización de todo tipo de eventos.

    • m&m dijo:

      les vendra la financiacion de In-Q-Tel? mmm, tendre que leer al respecto

  • Baff dijo:

    Me encanta el último párrafo. Creas un software que no tiene utilidad alguna, sabes que la gente lo usará para el mal y aún así lo das al público? Que les pasa? Sugerencias de cómo hacerlo para que la gente no caiga? Mi sugerencia es: No lo creés, no lo hagas y punto

    • kathy dijo:

      Totalmente de acuerdo, si no es útil y se prevé su mal uso para qué crearlo.

      • diossss dijo:

        para que inventaron la bicicleta si te pueden arrollar con ella

  • MX dijo:

    Esto no es nada bueno, solo sera utilizado para crear falsedades. lo verán muy pronto en Venezuela en contra de Maduro. Hay que tener bien nuestros conceptos porque todo se volverá mentiras.

    • Koko Valdés dijo:

      Para cuándo lo empezaremos a usar ?

  • sachiel dijo:

    Ahí tienen, nada nuevo, sólo que más utilizado ahora, y más creible por los miles de descerebrados que tenemos, que no analizan primero ni cruzan informacion antes de dar opiniones… para ellos todo lo que venga de dichas fuentes es «real y veridico», precisamente, «porque viene de allá»…

  • jotaepe dijo:

    alguien vio Forrest Gump?

    • marciano dijo:

      Yo la vi, sí, estoy de acuerdo con lo que dices

  • Yglez dijo:

    La mentira totalmente oficializada y tecnificada. Mentiras, mentiras y más mentiras por todos lados.

  • k0v4h dijo:

    Señores, por favor, dejen el alarmismo. Esta tecnología tiene tantos usos positivos como negativos, y si bien es cierto que podrá usarse para fabricar falsificaciones, bueno, eso solo reafirmará algo que ya sabemos; que no se puede confiar en el contenido de Internet. Y, créanme, las cosas buenas (de las cuales las principales no se explican en el artículo) compensan por mucho la «pequeña» cantidad de desinformación que traerá consigo (y digo pequeña, porque la cantidad de desinformación que puede mostrar un video falsificado es la misma que las imágenes o noticias falsificadas, y estas últimas existen ya por toneladas en Internet, y, además, son mucho más sencillas de crear). Me refiero al desarrollo de las GAN y el aprendizaje profundo (tecnologías punta con miles de utilidades) que trae consigo el desarrollo de esta aplicación, así como, al ser una tecnología ‘popular’ (para bien o para mal, atrae a las masas), motivará una oleada de financiación para el resto de proyectos, mucho menos visibles, ya que no tienen connotaciones políticas; aunque sí científicas, pero muchísimo más importantes socialmente hablando, pues pueden resolver una gran cantidad de problemas que a los políticos, honestamente hablando, les interesa mas bien poco, pues no infuyen en nada en el desarrollo de su próxima campaña electoral, sino en cosas más nimias a sus ojos, como la salud, la educación, y esas cosas.

  • dream dijo:

    de todos modos las metiras te las dicen a la cara y sin tecnologías de por medio

Se han publicado 14 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

Vea también