YouTube ha intentado mantener los videos violentos y de odio fuera de su servicio durante años. La unidad de Google contrató a miles de moderadores humanos y puso algunas de las mejores mentes en inteligencia artificial a trabajar en el problema.
El jueves, nada de eso logró detener a un hombre armado que usó las redes sociales para transmitir su ola de asesinatos en una mezquita de Nueva Zelanda, mientras legiones de publicadores en línea engañaban al software de YouTube para difundir el video del atacante.
Cuando el alboroto fue transmitido en vivo por Facebook, la policía alertó a la red social, que eliminó el video. Pero para entonces había sido capturado por otros, quienes lo volvieron a publicar en YouTube. Google dijo que estaba "trabajando de manera vigilante para eliminar cualquier filmación violenta". Aún así, muchas horas después, aún se podía encontrar, un desconcertante recordatorio de hasta dónde deben llegar las gigantescas empresas de Internet para comprender y controlar la información compartida en sus servicios.
"Una vez se ha determinado que el contenido es ilegal, extremista o una violación de sus términos de servicio, no hay absolutamente ninguna razón por la que, en un periodo relativamente corto, este contenido no pueda eliminarse automáticamente en el punto de carga", asegura Hany Farid, profesor de informática en la Escuela de Información de la Universidad de California en Berkeley. "Hemos tenido la tecnología para hacerlo por años".
¿Puede un videojuego ser el impulsor de una masacre como la de Nueva Zelanda?
YouTube ha trabajado para impedir que ciertos videos aparezcan en su sitio durante años. Una herramienta, llamada Content ID, ha existido por más de una década. Le brinda a los propietarios de derechos de autor, como los estudios de cine, la capacidad de reclamar el contenido como propio, recibir un pago por él y eliminar las copias piratas. Se ha utilizado tecnología similar para incluir en la lista negra otro contenido ilegal o indeseable, como pornografía infantil y videos de propaganda terrorista.
Hace unos cinco años, Google reveló que estaba usando técnicas de IA como el aprendizaje automático y el reconocimiento de imágenes para mejorar muchos de sus servicios. La tecnología fue aplicada a YouTube. A principios de 2017, 8 por ciento de los videos marcados y eliminados por extremismo violento se eliminaron con menos de 10 visitas. Después de que YouTube introdujera un sistema de señalización impulsado por aprendizaje automático en junio de 2017, más de la mitad de los videos extraídos por extremismo violento tenían menos de 10 visitas, informó en un blog.
Los ejecutivos de Google han testificado varias veces ante el Congreso de EE.UU. sobre el tema de los videos violentos y extremistas que se difunden a través de YouTube. El mensaje que repite es: YouTube está mejorando, agudizando sus algoritmos y contratando a más personas para enfrentar el problema. Se considera a Google como la compañía mejor equipada para hacer frente a esto debido a su destreza de IA.
Entonces, ¿por qué Google no pudo evitar que un solo video, que es claramente extremista y violento, se publicara una y otra vez en YouTube?
"Hay muchas maneras de engañar a las computadoras", asegura Rasty Turek, director ejecutivo de Pex, una empresa que construye una tecnología que compite con Content ID de YouTube.
Hacer cambios menores en un video, como colocar un marco a su alrededor o voltearlo de lado, puede confundir al software que ha sido entrenado para identificar imágenes problemáticas, explica Turek.
Video | Transmitió el horror del ataque a la mezquita de Nueva Zelanda por Facebook
El otro gran problema es la transmisión en vivo, que por su propia naturaleza no permite que el software de IA analice un video completo antes de que se cargue el clip. Los publicadores inteligentes pueden tomar un video existente que saben que YouTube bloqueará y transmitirlo en vivo segundo a segundo, esencialmente retransmitiéndolo en línea para evitar el software de Google. Cuando YouTube reconoce lo que está pasando, el video ya se ha reproducido durante 30 segundos o un minuto, independientemente de lo bueno que sea el algoritmo, dice Turek.
"La transmisión en vivo reduce la velocidad a un nivel humano", asegura. Es un problema con el que están luchando YouTube, Facebook, Pex y otras compañías que trabajan en el campo, agregó.
Este truco de retransmisión es un problema particular para el enfoque de YouTube de organizar listas negras de videos que rompen sus reglas. Su software impulsado por IA es entrenado para reconocer automáticamente el clip y bloquearlo si otra persona intenta subirlo al sitio nuevamente.
Todavía se necesita un tiempo para que el software de IA sea entrenado antes de que pueda identificar otras copias. Y, por definición, el video debe existir en línea antes de que YouTube pueda poner en marcha este proceso de aprendizaje automático. Y eso es antes de que la gente comience a dividir el contenido ofensivo en clips cortos para transmitirlos en vivo.
Otro factor de complicación es que los clips editados también están siendo publicados por organizaciones noticiosas de renombre como parte de su cobertura del evento. Si YouTube quitara un informe de noticias simplemente porque tenía una captura de pantalla del video, los defensores de la libertad de prensa se opondrían.
El tirador de Nueva Zelanda utilizó las redes sociales para obtener máxima exposición. Publicó en foros de Internet utilizados por grupos de derecha y antimusulmanes, tuiteó sobre sus planes y luego comenzó la transmisión en vivo de Facebook en su camino hacia el lugar del ataque.
Publicó un manifiesto lleno de referencias a Internet y a la cultura alternativa, probablemente diseñado para dar a los periodistas más material para trabajar y, así, difundir su notoriedad, afirma Jonas Kaiser, investigador afiliado al Centro Berkman Klein para Internet de Harvard.
"Los patrones parecen ser muy similares a los de eventos anteriores", dijo Kaiser.