BLOOMBERG

Facebook revisará su política de video para prevenir el abuso infantil

La compañía también está actualizando la supervisión de la capacitación del personal que revisa el contenido del sitio web.

Facebook App And Logo As Crisis Reignites Washington Scrutiny Of Social Networks
Facebook App And Logo As Crisis Reignites Washington Scrutiny Of Social Networks | Bloomberg

Facebook Inc., está revisando la forma cómo maneja los videos de abuso infantil y evita que menores de edad tengan cuentas, a medida que la red social aborda las preocupaciones de que no está haciendo lo suficiente para proteger a los usuarios.

El gigante de la tecnología está revisando su política de no eliminar los llamados videos de abuso infantil no sexual que están diseñados para condenar tal comportamiento y el niño en cuestión sigue en riesgo, dirá Niamh Sweeney, directora de políticas públicas de Facebook Irlanda, en una audiencia parlamentaria irlandesa el miércoles, según una copia de su testimonio a la que tuvo acceso Bloomberg News.

La compañía también está trabajando para actualizar la "guía para que los revisores puedan poner fin a cualquier cuenta que encuentren que tiene fuertes indicios" de que pertenece a un niño menor de 13 años.

Sweeney comparecerá ante los legisladores en Dublín junto con la directora de políticas de contenido de la firma para Europa, Siobhan Cummiskey, en medio de supuestos problemas sobre las políticas de moderación de contenido de Facebook destacadas en un documental transmitido por Channel Four Television Corp. Reiterará la disculpa de la compañía por "fallas" identificadas en el documental.

Los comentarios de Sweeney se producen cuando la red social más grande del mundo enfrenta un débil crecimiento de usuarios y críticas sobre sus políticas de contenido y problemas de privacidad de datos. Sus acciones cayeron alrededor de un 20 por ciento la semana pasada después de que los números de usuarios y los ingresos del segundo trimestre no cumplieran con las expectativas del mercado.

Fue un "error" no eliminar un video de "un niño de tres años agredido físicamente por un adulto", dirá Sweeney. Facebook solo permite que ese tipo de video se comparta si se trata de "condenar el comportamiento y el niño sigue en riesgo y existe la posibilidad de que el niño y el perpetrador se identifiquen ante la policía local como resultado de una toma de conciencia. "

Sobre cómo maneja el discurso de odio, Facebook "utiliza cada vez más la tecnología para detectar discursos de odio en nuestra plataforma, lo que significa que ya no confiamos solo en los informes de los usuarios", dirá Sweeney.

"De los 2,5 millones de discursos de odio que eliminamos de Facebook en los primeros tres meses de 2018, el 38 por ciento fue detectado por nuestra tecnología", agregará.

La compañía también está actualizando la supervisión de la capacitación del personal que revisa el contenido del sitio web.