A la luz de los recientes deepfakes, la película de 1997 «Escándalo en la Casa Blanca» (Wag the Dog) parece un presagio. En la película, Robert De Niro interpreta a un asesor que cambia las elecciones inventando una guerra para distraer a los votantes de un escándalo presidencial. Lo consigue con la ayuda de un productor de Hollywood, varios actores y un estudio. Allí se encargan de grabar todas las imágenes de la supuesta guerra para ser enviadas a todos los noticieros.
Hoy en día, crear contenido engañoso requiere mucho menos. Gracias a la IA, todo lo que se necesita es una persona con un computador, algunas imágenes y software libre para convencer al público de algo que nunca sucedió.
A medida que los deepfakes avanzan, ¿los contenidos creados o modificados por la IA llegarán a ser indistinguibles de la realidad? ¿Y qué pasaría si esta tecnología cayera en las manos equivocadas en 2024, el año donde hay más de 50 elecciones presidenciales en el mundo, entre ellos seis países de América Latina y Estados Unidos?
Te invito a que con esta guía entendamos el preocupante mundo de los deepfakes para ver de qué son capaces ahora y en el futuro, y qué se está haciendo para frenar su abuso.
Qué es un deepfake
Un deepfake se refiere a medios de comunicación, incluidos videos, fotos y audios, generados o manipulados por IA para suplantar la identidad de alguien o fabricar un suceso que nunca ocurrió.
La palabra proviene del término «aprendizaje profundo», y parece haberse originado en 2017 gracias a un usuario de Reddit. Los términos «face swapping» o «voice cloning» también se utilizan cuando se habla de deepfakes.
Entre los deepfakes famosos se incluyen:
- El Papa Francisco con una chaqueta puffer
- El «deeptomcruise» de TikTok
- Una foto falsa de la explosión del Pentágono
- El presidente ucraniano Volodymyr Zelenskyy rindiéndose
Como demuestran los ejemplos anteriores, los deepfakes pueden ser desde un entretenimiento inofensivo hasta una manipulación siniestra, y es esto último lo que tiene en guardia a políticos y ciudadanos.
La creciente popularidad de los deepfakes
De 2022 a 2023, el número de incidentes de fraude por deepfake a nivel mundial se multiplicó por 10, según una investigación de la plataforma de verificación de identidad Sumsub.
El mayor aumento se produjo en América del Norte, utilizado para impulsar identificaciones falsas y tomas de cuentas. Y ahora, los expertos advierten de que los deepfakes se están utilizando más que nunca en los intentos de difundir desinformación electoral.
En septiembre de 2023, pocos días antes de unas reñidas elecciones parlamentarias en Eslovaquia, se publicó en Internet una grabación de audio en la que parecía que el candidato progresista, Michal Šimečka, hablaba de cómo amañar las elecciones.
Los expertos advirtieron de que se trataba de una falsificación, pero eso no impidió su difusión. Es imposible saber si la grabación falsificada influyó en el resultado, pero al final ganó el adversario de Šimečka.
En enero de 2024, en lo que NBC News de Estados Unidos denomina el «primer uso conocido de una deepfake de IA en una campaña presidencial», una robollamada que se hacía pasar por el presidente Joe Biden instaba a los votantes de New Hampshire a no participar en las primarias presidenciales de su estado.
Apenas unas semanas después, la FCC prohibió las robollamadas con voces generadas por IA.
¿Es fácil crear un deepfake?
La facilidad es subjetiva. Empecemos con una pregunta mejor: ¿cómo de convincente quieres que sea el deepfake?
Si sólo quieres crear un video divertido en el que aparezcas como un Vengador, aplicaciones como iFace pueden tomarte un simple selfie y poner tu cara en escenas de películas famosas en cuestión de segundos.
Pero crear el tipo de deepfake sofisticado que realmente preocupa al mundo, el que podría influir en unas elecciones, requiere mucho más esfuerzo que eso.
Como muestran los dos ejemplos anteriores, el audio es más fácil de falsificar que el video. Para ver cuánto esfuerzo se requiere para crear un video deepfake persuasivo, primero tenemos que entender cómo funcionan los deepfakes.
Para crear una falsificación digital convincente de la imagen de otra persona, primero hay que entrenar el modelo de IA. En otras palabras, necesita estudiar rostros para aprender cómo son las imágenes de origen y de destino para replicar escenarios altamente realistas.
Para ello, hay que darle imágenes, audio y video para que los estudie, cuantos más mejor. Esto puede llevar horas y horas, un montón de GPU en el computador y, por supuesto, los conocimientos técnicos necesarios para conseguirlo.
El YouTuber Mike Boyd, que aparentemente no tenía experiencia previa en efectos especiales o aprendizaje automático, se propuso crear una deepfake «razonablemente convincente» de él en películas famosas.
Logró su misión utilizando el software de código abierto DeepFaceLab, estudiando múltiples tutoriales y alimentando el modelo de IA con miles de fotos suyas.
Le llevó 100 horas, y aquí está uno de los deepfakes que produjo todo ese trabajo:
Sin embargo, a medida que la IA avanza, es más fácil crear deepfakes razonablemente convincentes y de mayor calidad.
En marzo de 2023, un video generado por IA que mostraba a Will Smith comiendo espaguetis traumatizó al mundo tras su publicación en el subreddit r/StableDiffusion.
El autor original, un usuario llamado «chaindrop», dice que el video se creó con ModelScope, una herramienta de IA de conversión de texto en video de código abierto.
Un año después, quise ver hasta dónde había llegado esta tecnología en el año transcurrido desde el original de «Will Smith comiendo espaguetis».
Utilicé la herramienta de IA de texto a video de Vercel para generar un video de dos segundos basado en la simple pregunta «Will Smith comiendo espaguetis». Este fue el resultado:
No está del todo bien. Pero diré que los movimientos de este deepfake de Will Smith comiendo pasta son más claros y mucho menos frenéticos que el de ModelScope.
PikaLabs produjo una versión más realista del actor, pero no cumplió la petición.
Si los resultados de Sora se parecen en algo a los realistas y elaborados videos que OpenAI muestra en su página de aterrizaje, entonces puede que tengamos algo de lo que preocuparnos en el futuro.
Qué se está haciendo para luchar contra los deepfakes perjudiciales
Como te puedes imaginar, regular una tecnología cada vez más engañosa y en constante evolución es todo un reto. Pero tanto en Estados Unidos como en Europa, las entidades de los sectores público y privado están tomando medidas.
A 13 de marzo de 2024, 43 estados de Estados Unidos habían presentado o aprobado leyes que regulan el uso de deepfakes en las elecciones, según la organización sin ánimo de lucro de defensa del consumidor Public Citizen. Associated Press también informa de que al menos 10 estados ya han promulgado leyes relacionadas con los deepfakes.
Al otro lado del charco, el Reino Unido promulgó en octubre de 2023 la Ley de Seguridad Online, que, entre otras cosas, prohíbe compartir sin consentimiento fotografías o filmaciones de un acto íntimo, incluidas las imágenes «realizadas o alteradas mediante gráficos por ordenador o de cualquier otra forma».
Además, en febrero, el ministro británico del Interior, James Cleverly, se reunió con directivos de Google, Meta, Apple y otras empresas tecnológicas para debatir cómo salvaguardar las próximas elecciones.
En diciembre de 2023, los legisladores de la Unión Europea aprobaron la Ley de Inteligencia Artificial, un marco legal pionero que intenta identificar y mitigar los riesgos asociados a la inteligencia artificial. Según esta ley, los deepfakes deben etiquetarse como generados artificialmente para que el público pueda permanecer informado.
En el sector privado, las empresas implicadas en el desarrollo de herramientas de inteligencia artificial están poniendo sus propias barreras.
El año pasado, Google lanzó una herramienta de marca de agua para facilitar la detección de imágenes generadas por IA. En febrero, 20 empresas tecnológicas, entre ellas Google, Meta y OpenAI, firmaron un acuerdo tecnológico para luchar contra la interferencia de la IA en las elecciones.
En él, las empresas se comprometieron a detectar y etiquetar el contenido engañoso de IA en sus plataformas para que quede claro que ha sido generado o manipulado por inteligencia artificial.
El mes pasado, Google se unió a C2PA como miembro del comité directivo, junto con Adobe, Microsoft y Sony, para ayudar a desarrollar «credenciales de contenido», que es esencialmente una insignia virtual adjunta al contenido digital que, al hacer clic, muestra detalles sobre cómo se utilizó la IA para hacerlo o modificarlo.
OpenAI, el creador de DALL-E y ChatGPT, ya ha adoptado medidas de mitigación, como la prohibición de utilizar la imagen de un personaje público en sus imágenes generadas por IA.
Cuando le pedí a ChatGPT que generara una imagen de Will Smith comiendo espaguetis, no accedió.
Dado que el modelo de conversión de texto a video de OpenAI rechaza los mensajes que solicitan el parecido con famosos, es probable que Sora siga la misma política.
Desde el fraude a los consumidores hasta los intentos de interferir en las elecciones, está claro que los deepfakes ya están causando daños.
Cuando la verdad puede fabricarse con solo pulsar un botón, es responsabilidad de cada individuo mantenerse escéptico, hasta que los gobiernos y las empresas se pongan al día.