Deepfakes: videos falsos y el riesgo de viralizar la mentira

Nuevas técnicas permiten crear videos falsos hiperrealistas difíciles de detectar a simple vista. Especialistas advierten sobre la posibilidad de utilizar esa tecnología para realizar campañas de desinformación. Una vez más, la veracidad de los registros audiovisuales, están bajo sospecha.

El expresidente Barack Obama sometido a un video falso.

El expresidente Barack Obama sometido a un video falso.

La manipulación de imágenes fotográficas para falsear realidades es una práctica que ya asimilamos como posible y hasta cotidiana. No sorprende que el aspecto de un cuerpo o un paisaje sufra alteraciones para cumplir objetivos diversos, como puede ser el cumplimiento de cierta estética física o directamente mentir sobre un hecho.

La situación se vuelve más compleja si los registros audiovisuales, los videos, también pueden ser trucados hasta lograr una calidad casi perfecta.

Ahora, ya mismo, circulan videos de personas famosas que dicen cosas que nunca dijeron y en situaciones en las que -posiblemente- nunca estuvieron. Se trata de un tipo de montaje hiperrealista que permite generar videos con mensajes de personas generados por computadora. Son los llamados “DeepFakes” y su surgimiento impacta de maneras diversas, como la propagación de noticias falsas o desinformación.

Basta una simple búsqueda en Youtube con las palabras “Obama Deepfake” para comprender de qué hablamos. El primer video es un Obama que habla mirando a cámara, se mueve, gesticula. Él mismo da un discurso que advierte sobre los peligros de los “Deepfakes” y los tiempos peligrosos que vivimos. Ese Obama no es un Obama real. Ese Obama es un “fake”, una mentira.

Aprenden, copian y hablan

Como muchas innovaciones tecnológicas, los Deepfakes surgieron en la industria del porno con videos sexuales protagonizados por estrellas de Hollywood. Videos falsos que, hecha la técnica, pueden replicarse para usos políticos, personales y de cualquier índole.

Se trata de una técnica de Inteligencia Artificial que ‘copia’ y ‘aprende’ los comportamientos, voces y movimientos de una persona para generar videos falsos. El software suma imágenes de distintos ángulos, asimila sus expresiones y luego genera ese registro con un discurso dicho por alguien que en realidad nunca dijo.

Por el momento, y sólo hasta que esos softwares no peguen otro salto de calidad, esas falsificaciones pueden ser detectadas con cierto entrenamiento. Por ejemplo, en algunos casos esas personas virtuales no parpadean, no tienen un buen ritmo de respiración o son defectuosos al aplicar énfasis en las frases.

Investigadores en Ciencias de la Computación de la Universidad de Albany publicaron en junio un paper que explica la forma de detectar los videos falsos en base a los parpadeos. Tal vez una forma posible de detección. Pero la pregunta es: ¿cuánto pueden durar estas imperfecciones?

Tan difícil se convirtió la detección de los videos falsos que el gobierno de Estados Unidos abrió un programa de expertos en “análisis digital forense”, el MediFor, para intentar detectar la manipulación de imágenes.

“Las herramientas forenses utilizadas hoy en día carecen de robustez y escalabilidad, y abordan solo algunos aspectos de la autenticación de medios; no existe una plataforma de extremo a extremo para realizar un análisis forense completo y automatizado”, explican en la página de DARPA. Y alertan: “si bien muchas manipulaciones son benignas, se realizan por diversión o por valor artístico, otras son para fines de confrontación, como propaganda o campañas de desinformación”.

La desinformación como campaña

«Dentro de un año o dos, será muy difícil para una persona distinguir entre un video real y un video falso (…)  Creo que esta tecnología será irresistible para que los Estados nacionales la utilicen en campañas de desinformación para manipular la opinión pública, engañar a las poblaciones y socavar la confianza en nuestras instituciones” dijo Andrew Grotto, de la Universidad de Stanford, a la agencia AP.

“Las mentiras se esparcen más rápido que la verdad”, concluye una investigación publicada por la Revista Science sobre un estudio de publicaciones en Twitter. Para el análisis tomaron tuits publicados entre 2016 y 2017. Allí encontraron que “la falsedad se difundió significativamente más lejos, más rápido y más profunda que la verdad en todas las categorías de información. Descubrimos que las noticias falsas eran más novedosas que las verdaderas, lo que sugiere que las personas tenían más probabilidades de compartir información novedosa”.

En Brasil, proliferaron las denuncias de los principales candidatos presidenciales por pagar millonarios montos para realizar campañas con noticias falsas vía WhatsApp. Lo mismo, pero en Facebook, ocurrió en las últimas elecciones en Estados Unidos que llevó a Donald Trump a la presidencia. El debate es tan extenso y complejo que hasta Mark Zuckerberg (dueño de Facebook, WhatsApp, Instagram, entre otras redes sociales) tuvo que dar explicaciones ante el Congreso de su país.

La solución no parece ser sencilla y las responsabilidades se diluyen entre supuestas plataformas tecnológicas agnósticas, usuarios desprevenidos y oportunistas manipuladores de cualquier rubro.

Mientras tanto, la situación para el ciudadano informado es de un permanente estado de alerta, con la guardia en alto y preguntándose quién dijo qué y quién lo reproduce. Porque allí, en la verificación de la información, los medios profesionales tienen la mayor de las responsabilidades. Sino, ¿en quién podemos confiar?  

El presentador “robot” de un noticiero chino

La agencia oficial de noticias de China, Xinhua, presentó a un conductor de un noticiero creado completamente de manera artificial.

Así lo anuncian: “El presentador de noticias, hecho con la última tecnología de inteligencia artificial, tiene una imagen masculina con voz, expresiones faciales y acciones de una persona real. ‘Él’ aprende de la transmisión de videos en vivo por sí mismo y puede leer textos tan naturalmente como un presentador de noticias profesional”.

¿Suena robótico? Sí. ¿Carece de expresiones emotivas en su relato? También. Pero para el medio chino es el primer experimento que les permite generar de manera sencilla una gran cantidad piezas audiovisuales para todas sus plataformas. A bajo costo y “sin humanos” dando la cara.


Temas

Video

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios