Soleado
Temperatura:
16º
Ciudad:
Buenos Aires
lunes 23 de septiembre de 2019 | Suscribite
TECNOLOGIA / Inteligencia artificial
viernes 5 julio, 2019

Qué es un "Deep fake" y por qué no se usó en el video falso de Patricia Bullrich

La técnica usa algoritmos para crear imágenes y videos realistas de todo tipo, desde noticias falsas hasta pornografía con el rostro de famosos.

por Facundo Falduto

Patricia Bullrich y Mark Zuckerberg sufrieron videos falsos en su contra. El de la ministra de Seguridad fue manipulado de forma "casera". El del fundador de Facebook, con algoritmos. Foto: Cedoc

Las fake news ya son un ingrediente inevitable de las campañas electorales modernas. Existen incluso desde antes de la popularización de la democracia, pero en la última década las redes sociales las potenciaron a niveles insospechados, sobre todo en época electoral. La disponibilidad de herramientas para editar imágenes, audios y videos, junto a la descentralización de las comunicaciones, ayudaron a generar una catarata inédita de rumores, contenido falso y campañas de manipulación. El catálogo de casos en Argentina es demasiado largo para enumerarlo: alcanza con mencionar el último incidente, que involucró a Patricia Bullrich. Un video en el que la ministra de Seguridad informaba sobre la captura de 12 criminales fue ralentizado para insinuar que la funcionaria estaba alcoholizada, o bajo algún tipo de medicación. La manipulación circuló por las redes entre opositores que repudian la gestión de Bullrich, y la vincularon al episodio que vivió hace diez años en un control de alcoholemia.

​Desde el Gobierno, y en muchos medios que reprodujeron la noticia, se calificó el video como un "deep fake". Pero el término (una combinación de "aprendizaje profundo" y "falso") no aplica en este caso. Se trata de un tipo de tecnología que usa algoritmos para generar imágenes humanas realistas de distinto tipo, con distintas aplicaciones: desde superponer un rostro en otro cuerpo en forma convincente hasta generar movimientos a partir de una imagen estática. El desarrollo de inteligencia artificial que permite la creación de deep fakes viene de las últimas dos décadas, pero gracias a la popularización de aplicaciones como Fakeapp o FaceSwap, el término creció en relevancia en los últimos dos años: usuarios de Reddit comenzaron a implantar la cara de Nicholas Cage (un meme en sí mismo, por otros motivos) en películas populares en las que, obviamente, no aparecía.

Fake News: las falsas noticias y su impacto brutal en la política

Como es la regla en la web, la técnica pasó rápido a la pornografía. En ese ámbito, la manipulación de rostros existía hace años, pero la nueva tecnología la llevó a nuevos niveles de verosimilitud y multiplicó la cantidad de actrices de Hollywood que lo sufrieron. "Nada puede evitar que alguien corte y pegue mi cara o la de otra persona en un cuerpo diferente y lo haga ver terroríficamente realista", protestó en diciembre pasado Scarlett Johansson, una de las principales víctimas de los deep fake, y calificó a internet como un "agujero negro que se come a sí mismo". La estrella reconocía que es inútil luchar contra el fenómeno: resulta imposible perseguir a todos los que se dedican a manipular imágenes. Incluso si las leyes de copyright de un país prohíben hacerlo, siempre habrá un servidor en otro lado. "Protegerte de la internet y su depravación es una causa perdida", remató.

​Los deepfakes pasaron poco después a la política. El primer caso notable fue un video del expresidente de Estados Unidos, Barack Obama, subido a YouTube con el título "No vas a creer lo que Obama dijo en este video!". Creado por el director Jordan Peele y el CEO de Buzzfeed Jonah Peretti, el Obama del video advertía precisamente sobre los peligros de la tecnología. "Estamos entrando en una era en la que nuestros enemigos pueden simular que cualquiera dice cualquier cosa en cualquier momento", afirmaba la imagen del demócrata. La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) lleva invertidos unos 68 millones de dólares en el programa MediFor (por "Forenses de Medios) para desarrollar tecnología de detección de deepfakes. Las falsificaciones son fáciles de detectar por ahora, pero los procesos mejoran a alta velocidad. Incluso en el estado actual de la técnica, siempre hay alguien dispuesto a creer lo que confirme sus prejuicios, siempre la desmentida llega a muchas menos personas que las que ven la noticia falsa.

Opinion: Las redes, esa maraña donde todo vale

Estados Unidos sufrió sus propios escándalos con videos falsos este año, cuando dirigentes republicanos difundieron videos falsos "artesanales" de la líder legislativa demócrata Nancy Pelosi. Uno, como el de Bullrich, aparecía más lento para sugerir que estaba ebria. Otro, compartido por el propio Donald Trump, recortaba los momentos en los que se trababa en su discurso, con la insinuación de un problema mental. Esta manipulación básica fue calificada como "cheap fake" (barato y falso).

​​Los videos de Pelosi pusieron en tela de juicio el rol de las redes sociales en la difusión de noticias falsas. Facebook se limitó a marcarlo como falso y reducir su visibilidad, pero se negó a bajarlo. Neil Potts, director de políticas públicas de la empresa, dijo que haría lo mismo si el video fuese del fundador Mark Zuckerberg. Sus palabras fueron puestas a prueba apenas semanas después, con la aparición de un deepfake del CEO. "Imagina esto por un segundo: un hombre con control total de los datos robados de miles de millones de personas, de todos sus secretos, sus vidas, sus futuros", reza Zuck en el video ​generado por Bill Posters y Daniel Howe en colaboración con Canny AI, una compañía publicitaria israelí. ​Los creadores tomaron imágenes reales del ejecutivo, pero las ajustaron para ​que parezca que pronuncia su discurso, y el resultado es estremecedor. Instagram, propiedad de Facebook, no bajó el video. Por ahora.

FeL


Comentarios

Lo más visto

RECOMENDAMOS...

Periodismo puro

© Perfil.com 2006-2018 - Todos los derechos reservados

Registro de Propiedad Intelectual: Nro. 5346433 | Edición Nº 4761

Domicilio: California 2715, C1289ABI, CABA, Argentina  | Tel: (5411) 7091-4921 | (5411) 7091-4922 | Editor responsable: Ursula Ures | E-mail: perfilcom@perfil.com | Propietario: Diario Perfil S.A.