Kate Isaacs, feminista y enérgica activista contra la pornografía infantil, jamás imagino que su figura podía ser manipulada con inteligencia artificial para incorporar su imagen en un video de contenido para adultos. La mujer inglesa de 30 años fue víctima de la tecnología deepfake, que permite mediante un software componer videos a partir de las imágenes robadas de las redes sociales. Todo indica que se trataría de una especie de "ajuste de cuentas" por la lucha pública de Isaacs contra la pornografía infantil.
Ella, Kate Isaacs, asegura haber sido víctima de un abuso sexual digital motivado por su antigua campaña #NotYourPorn (2020), a través de la cual se logró la eliminación de 10 millones de videos de pornografía infantil y no consentida en múltiples sitios web.
Desde entonces, Kate quedó en una situación de suma vulnerabilidad, ya que se publicaron en Internet las direcciones de su trabajo y de su casa. A su vez, la mujer habría recibido graves amenazas: los agresores le aseguraron que la iban a perseguir para violarla, grabar la escena y subirla a Internet.
"Soy la jefa y tú la secretaria": un nuevo deep fake de Cristina Kirchner la rompe en TikTok
Sin embargo, la mujer no imaginó que podía ser víctima de la tecnología deepfake: en internet circuló un video falso en el cual Kate Isaacs tenía relaciones sexuales. El material se basaba en imágenes extraídas de una entrevista televisiva de Kate cuando impulsó su campaña contra la pornografía no consentida.
Según la empresa de ciberseguridad Deeptrace, el 96% de todos los videos de deepfake son pornografía no consentida. Es decir, se utilizan fotos de la víctima para crear contenido para adultos, recreando situaciones que no existieron, pero que parecen reales por la calidad del software utilizado.
Qué es el abuso sexual digital
La pornografía deepfake es considerada dentro de la órbita del abuso sexual digital, basado en imágenes, un término que se emplea para designar la toma, la creación o el intercambio de fotos íntimas sin el consentimiento de la persona involucrada.
Kate compartió su impactante historia en un documental de la BBC "Porno deepfake: ¿podrías ser el siguiente?", presentado por la periodista Jess Davies. Allí de expone el procedimiento para crear este tipo de contenidos.
Una mujer contó la pesadilla de "acoso y abuso sexual virtual" que vivió en metaverso
En el documental, Davies conversa con Gorkem y MrDeepFakes, dos de los más conocidos creadores de deepfakes. El primero de ellos relativizó el tema y expresó que la víctima, al no ser la real protagonista y tratarse de un video falsificado, “no sufre ningún daño”.
MrDeepFake, quien tiene un sitio web de videos falsos con 13 millones de visitas al mes y casi 250.000 miembros, coincidió y le restó importancia al asunto “mientras no se trate de hacer pasar el video como real”. Tampoco consideró que debería mediar consentimiento de la persona para crear estos contenidos.
La reacción de Kate Isaacs
Kate Isaacs, víctima en carne propia de un deepfake sexual, no convalidó la postura de los falsificadores de contenido: “Esto es preocupante y realmente aterrador. Estamos hablando de Internet, no de la Deep Web. No sé en qué mundo vive esta gente si es capaz de crear estas cosas y pensar que no tienen ningún impacto en la reputación de alguien”.
Davies explicó asimismo en el documental que aplicaciones de fácil acceso como FaceMagic -que tiene una calificación para mayores de 12 años- pueden crear deepfakes en menos de un minuto.
Frente a esto, la activista contra la pornografía infantil advirtió sobre la peligrosidad de esta manipulación tecnológica: “Los deepfakes pueden utilizarse para controlar a las mujeres”.
“Las empresas tecnológicas -incluidas las que fabrican aplicaciones que permiten el intercambio de rostros- deben poner restricciones e implementar sistemas que sean capaces de detectar el contenido sexual”, agregó Kate.
“Si las empresas no invierten dinero, recursos y tiempo para garantizar que sus apps no se utilicen como herramienta para crear contenido de abuso sexual, están siendo deliberadamente irresponsables. Son culpables”, concluyó la víctima de abuso sexual digital.
CA/ED