Skip to content

Los videos falsos dan miedo

Los videos falsos dan miedo

Si la tecnología continúa en su trayectoria actual, será imposible detectar videos deepfake asistidos por IA. Feather Creative / Getty Images

En este punto de su desarrollo, algo inequívocamente aterrador todavía está pasando por deepfakes, una etiqueta completa pero engañosa para los videos falsos creados y manipulados mediante inteligencia artificial (IA) y aprendizaje automático.

No son solo los videos raros, banales y no tan correctos producidos por este software cada vez más sofisticado. Aunque sí, pueden dar miedo. Y no es solo el dilema ético de editar fotos y videos originales. Incluso si definitivamente corta un espacio de rastreo.

La mayoría de las veces, es la idea de que nos estamos acercando rápidamente a un punto en el que no podemos confiar en nuestros ojos. ¿Es esta foto una representación precisa de su tema? ¿Es un video? ¿Esta cara coincide con este cuerpo? ¿Estas palabras coinciden con esa cara?

¿Puede este chico? verdaderamente bailar así?

Corte comercial

TI detrás de Deepfake

A fines de 2017, un usuario de Reddit conocido como Deepfakes, según Know Your Meme, reveló algunos videos de pornografía inversa: es tan triste y patético como suena; el rostro de alguien, por lo general una figura pública, se superpuso a la cabeza de otra persona, y comenzó el profundo y falso frenesí.

Poco después, Deepfakes lanzó una aplicación, FakeApp, y la gente comenzó a usarla. Desde entonces, se han producido todo tipo de memes sobre este programa y otros, algunos divertidos, otros francamente aterradores, otros peores. Incluyen la cara de Nicolas Cage en el cuerpo de Amy Adams (quien interpreta a Lois Lane en una película de Superman) y una excelente producción de BuzzFeed protagonizada por el comediante Jordan Peele como el ex presidente Barack Obama, quien advierte sobre algunos de los usos más siniestros de la tecnología en un video de NSFW. (terminando con la falsa bama diciendo “¡Mantente despierto, bi $% * es!”).

El último video de deepfake es cortesía de un TikToker que se hace pasar por Tom Cruise. Tres videos son increíblemente reales y muestran a Cruise, entre otras cosas, golpeando una pelota de golf. Los videos fueron creados por Chris Ume, un especialista en efectos visuales de Bélgica.

La informática utilizada para crear los programas detrás de estos videos puede ser extremadamente compleja, mucho más intensa que la utilizada para los deepfakes simples. Los algoritmos complejos y los términos computacionales, como las redes generativas contradictorias (GAN) y las redes neuronales profundas, acentúan los artículos académicos sobre las técnicas de edición de video más avanzadas.

Por lo general, estos programas examinan el video de un sujeto cuadro por cuadro y “aprenden” el tamaño, la forma y el movimiento del sujeto para que puedan transferirse a otro sujeto en el video. Si bien los deepfakes se limitaban principalmente a cambiar las caras de los sujetos, los programas más avanzados pueden transferir posiciones de la cabeza completamente en 3D, incluidas cosas como inclinar la cabeza o levantar una ceja o un par de labios fruncidos. Se trabajó en los movimientos de todo el cuerpo.

Cuanto más detectan estos programas, más se activan estas redes y “aprenden” sobre las variables, más eficientes, efectivos y realistas se vuelven los videos.

Corte comercial

además de deepfakes

Es importante tener en cuenta que no todas las técnicas de edición de fotos y videos con tecnología de inteligencia artificial y aprendizaje automático son falsas. Los académicos que trabajan en el campo ven a los deepfakes como aficionados, relegados a un simple intercambio de caras.

Un grupo de la Universidad de California en Berkeley está trabajando en una técnica que mueve un cuerpo entero, un bailarín profesional, y lo intercambia sobre el cuerpo de un aficionado en video. Con algo de magia de IA, incluso alguien con dos pies izquierdos puede al menos parecer moverse como Baryshnikov. El grupo de Berkeley detalla su trabajo en la revista Everybody Dance Now.

La técnica no es perfecta, por supuesto. Pero es algo delicado. También es difícil eliminar una cara en movimiento generada por computadora. Por el momento, la mayoría de las caras generadas por IA, incluso en deepfakes, especialmente deepfakes, son falsificaciones obvias. Casi siempre algo parece un poco inusual.

“Creo que una de las cosas son los detalles oscuros de las caras”, dijo Tinghui Zhou, estudiante de posgrado en ciencias de la computación en Berkeley y uno de los autores de Everybody Dance Now. [humans] Son muy buenos para identificar si un rostro es real o no: detalles de las sombras, cómo se mueven las arrugas, cómo se mueven los ojos, todo ese tipo de detalles deben ser exactamente correctos. No creo que el sistema de aprendizaje automático actual sea capaz de capturar todos estos detalles. “

Otro nuevo sistema de manipulación de video de IA, o, como lo llaman sus arquitectos, “resucitación de video fotorrealista”, en realidad utiliza un actor “fuente” que puede alterar el rostro de un actor. “objetivo”.

Usted, la “fuente” (por ejemplo) mueve la boca de cierta manera, las computadoras mapean el movimiento, lo inyectan en el programa de aprendizaje y el programa se traduce en un video donde Obama dice sus palabras. Te ríes o levantas las cejas, y Obama también.

Un artículo sobre este proceso, conocido como Deep Video Portraits, se presentó en una conferencia sobre gráficos por computadora y técnicas interactivas en Vancouver a mediados de agosto de 2018 y revela una ubicación para el programa: Hollywood.

“[C]Los videos generados por computadora han sido una parte integral de los largometrajes durante más de 30 años. Prácticamente todas las producciones cinematográficas de alta gama contienen un porcentaje significativo de imágenes generadas por computadora, o CGI, desde El señor de los anillos hasta Benjamin Button, “escriben los autores”. Estos resultados son difíciles de distinguir de la realidad y a menudo se olvida que el contenido no es real … pero el proceso llevó tiempo y requirió expertos de la industria. Incluso un pequeño video musical sintético cuesta millones de dólares en presupuesto y meses de trabajo, incluso para artistas capacitados profesionalmente, ya que deben crear y animar manualmente grandes cantidades de contenido 3D. “

Gracias a la inteligencia artificial, ahora podemos producir las mismas imágenes en mucho menos tiempo. Es más barato. Y, si no ahora, pronto, igualmente convincente.

Corte comercial

Caminando sobre el filo de la navaja ética

El proceso de manipular un video existente o crear un nuevo video con imágenes falsas, como advierten el comediante Peele y otros, puede ser francamente peligroso en las manos equivocadas. A algunas actrices y artistas prominentes les han robado rostros y los han incorporado a videos porno en los primeros ejemplos más inquietantes de deepfake. Usar imágenes para, como advirtió Peele en su video de Obama, producir “noticias falsas” es una posibilidad muy real.

Muchos establecimientos ya han tomado medidas para detener las falsificaciones profundas. Reddit en realidad cerró los deepfakes de subReddit. Pornhub se compromete a prohibir la pornografía generada por IA. Tumblr y Twitter se encuentran entre otros sitios que prohíben deepfakes pornográficos.

Pero estos videos pueden no ser particularmente fáciles de controlar, especialmente a medida que mejoran los programas para crearlos. Michael Zollhöfer, profesor de ciencias de la computación en Stanford y uno de los cerebros detrás de Deep Video Portraits, dice que los miembros de la comunidad académica son conscientes de la ética involucrada. De Zollhöfer, en un comunicado de prensa que anuncia su proyecto:

La industria de los medios ha estado editando fotos con software de edición de fotos durante muchos años, lo que significa que la mayoría de nosotros hemos aprendido a mirar lo que vemos en las fotos con precaución. Con la mejora constante en la tecnología de edición de video, también debemos comenzar a ser más críticos con el contenido de video que consumimos todos los días, especialmente si no hay prueba de origen.

Cualquiera que esté involucrado en la construcción de esta tecnología, dice Zhou, debe tomar las medidas adecuadas para asegurarse de que no se utilice incorrectamente. Desarrollar software para detectar videos optimizados o editados en su computadora y etiquetar el video con “marcas de agua” invisibles para mostrar durante una evaluación forense que fue generado por computadora será de gran ayuda. Nuevamente, en Deep Video Portraits:

Es importante tener en cuenta que la investigación en profundidad y la comprensión de los algoritmos y principios detrás de las herramientas avanzadas de edición de video a medida que las guiamos, también es fundamental para el desarrollo de tecnologías que permitan detectar su uso. Los métodos para detectar la manipulación de video y los métodos para realizar la edición de video se basan en principios muy similares.

Zhou dijo: “Creo que los investigadores definitivamente tenemos la responsabilidad de educar al público sobre el abuso de estas tecnologías. Pero quiero enfatizar: hay muchos usos positivos para esta investigación. Hemos recibido solicitudes de bailarines para utilizar nuestra investigación para ayudar con el baile. Hay aspectos positivos de esta tecnología.

Corte comercial

lo que nos espera

El campo continúa mejorando a medida que los programas se vuelven más sofisticados y las máquinas aprenden mejor a superar las fallas obvias y menos obvias en los videos y fotos generados por computadora. Adónde podría ir esto es una suposición. Pero muchos temen que las mejoras en la tecnología lleguen tan rápido que podamos entrar en una era en la que ya no podemos confiar en lo que vemos y oímos.

Y eso nos lleva a otro tipo de video falso que también puede causar grandes problemas, especialmente para las próximas elecciones presidenciales de 2020: tonterías. En mayo de 2019, por ejemplo, un video distorsionado de la presidenta Nancy Pelosi se difundió como la pólvora en las redes sociales. El video pareció insultar a Pelosi y tropezar con un discurso. De hecho, el video fue editado digitalmente por un bloguero deportivo de la ciudad de Nueva York y “superfan Trump” que lo subió a Facebook. El video fue rápidamente denegado, pero ha sido visto millones de veces. YouTube lo eliminó diciendo que el video violaba sus estándares. Sin embargo, Facebook lo mantuvo en el sitio, diciendo solo que el video era “falso” y que intentaría limitar el número de compartidos.

Si bien este video editado de Pelosi no es tan técnico como deepfake, Hany Farid, un experto en análisis forense digital de la Universidad de California en Berkeley, le dijo a NPR que eso es lo que lo hace aún más preocupante. Están etiquetados como burros porque son más fáciles y más baratos para el fabricante que los deepfakes. Por lo general, deberá ajustar la velocidad del video o algunos ajustes básicos para producir un video nuevo y atractivo.

“El tiempo se acaba”, dijo Farid a NPR. “El video de Nancy Pelosi era de un canario en una mina de carbón”.

Corte comercial

Publicado originalmente: 5 de septiembre de 2018