No fue una semana más para la mayor red social del mundo. La transmisión en vivo a través de Facebook Live de la masacre en mezquitas de Nueva Zelanda generó una avalancha de críticas por la falta de control de este tipo de servicios. Aunque la compañía de Mark Zuckerberg afirmó haber retirado “rápidamente” el video del hombre armado disparando en dos mezquitas en Christchurch –ataques en los que murieron 49 personas–, la transmisión en vivo duró 17 minutos, según algunos informes, y fue viralizada en YouTube y Twitter. De hecho, algunas tomas seguían viéndose horas después.
Si bien las principales plataformas de internet se han comprometido a adoptar medidas enérgicas sobre la publicación de imágenes de contenido violento o inapropiado en internet a través de sistemas automáticos y de monitoreo humano, algunos estiman que no está funcionando. “No hay ninguna excusa para que el contenido de esa transmisión en vivo esté circulando ahora”, señaló a AFP Lucinda Creighton, ex ministra de Gobierno irlandesa y asesora de la ONG Counter Extremism Project, que hace campaña para retirar contenido violento de internet.
El mismo Zuckerberg reconoció en varias oportunidades la dificultad de vigilar los contenidos de los 2.700 millones de usuarios de la red social. Además de sus herramientas tecnológicas y sus propios moderadores, Facebook utiliza cada vez más las informaciones de los propios usuarios para retirar contenidos inapropiados.
Para Jennifer Grygiel, profesora de Comunicación de la Universidad de Syracuse, en Nueva York, las compañías están haciendo muy poco para prevenir la viralización de contenido violento. “Facebook es una plataforma sin moderadores, donde uno puede colgar lo que quiera”, dijo, alegando que no se habían adoptado medidas significativas desde la transmisión en vivo en la red social del asesinato de un hombre de 74 años en Cleveland (EE.UU.) en 2017.
Según Grygiel, usar las plataformas para transmitir actos de violencia se ha convertido en algo común para los perpetradores, y esas imágenes a menudo se comparten en YouTube y en otros sitios.
Tormenta. A la difusión de contenido violento se suman otros dos hechos que le han significado una “tormenta” a Facebook: la caída de sus redes asociadas en diversos países del mundo (atribuida a un fallo técnico surgido por cambios en los servidores) y la salida de dos altos ejecutivos.
El miércoles los usuarios de Facebook, Instagram y WhatsApp reportaron la caída de estas dos últimas redes sociales y problemas para enviar archivos multimedia en el servicio de mensajería instantánea. El problema se prolongó al menos por siete horas. Mientras que el jueves la compañía perdió a Chris Cox, director de Producto de Facebook, y a Chris Daniels, quien se hizo cargo de WhatsApp luego de que sus fundadores se fueran de la empresa, el año pasado. La renuncia de Cox y Daniels también coincide con la apertura de una investigación penal federal en Estados Unidos por la gestión de datos.
En el ámbito local, el ingreso de Facebook a la transmisión de la Copa Libertadores de fútbol también generó una avalancha de críticas en los usuarios pero, sobre todo, en los cableoperadores de la región. Es que los partidos de los jueves se ven exclusivamente por la plaforma Facebook Watch, dejando a una parte de los televidentes sin poder ver la Copa.