Elon Musk redujo drásticamente el tamaño del equipo de Twitter dedicado a abordar la explotación sexual infantil en la plataforma, lo que reduce a la mitad el equipo global de expertos y deja atrás un equipo mínimo abrumado, según señalaron fuentes familiarizadas con el asunto.
El área ahora cuenta con menos de 10 especialistas para revisar y escalar los informes de explotación sexual infantil, dijeron las fuentes, que pidieron mantener el anonimato por temor a represalias. A principios de año, la "red social del pajarito" tenía un equipo de unos 20, afirmaron.
Los cambios llegan al tiempo que legisladores en la Unión Europea y Reino Unido discuten reglas de seguridad en línea de amplio alcance que requerirán plataformas de redes sociales para proteger mejor a los niños o enfrentar multas significativas. Cabe mencionar que Twitter no respondió a una solicitud de comentarios.
Twitter no controlará más la desinformación relacionada con el Covid-19
El equipo, una combinación de exagentes de la ley y expertos en seguridad infantil con sede en Estados Unidos, Irlanda y Singapur, se había ya estirado antes de los recortes, trabajando muchas horas para responder a los informes de los usuarios y las solicitudes legales, dijeron las personas. El equipo responsable de detener la distribución de material de abuso sexual infantil, instancias de preparación en línea y medios que promovían la atracción por menores como identidad u orientación sexual.
La semana pasada, Musk tuiteó que “eliminar la explotación infantil es la prioridad número 1” y pidió a los usuarios “responder en los comentarios si ven algo que Twitter deba considerar”.
Desde que Musk asumió el cargo, algunos hashtags prominentes asociados con el abuso de menores se han eliminado, cambios que se habían estado trabajando antes de su adquisición. Aun así, combatir este tipo de mensajes no siempre es tan simple como eliminar los mensajes que contienen los hashtags ofensivos, ya que muchos tienen otro propósito inocuo ya que los delincuentes también cambian constantemente los términos que usan para evadir la detección.
Si bien las herramientas basadas en inteligencia artificial pueden ser útiles para identificar imágenes que ya han sido revisadas y categorizadas como material de explotación sexual infantil por parte de los autoridades, la revisión humana es particularmente importante para comprender los matices de la preparación y otros comportamientos de explotación, identificando imágenes abusivas previamente desconocidas y videos; así como entender las diferencias regionales en la ley, sostuvieron las fuentes. Los seres humanos también deben responder a las solicitudes de las fuerzas del orden público como parte de las investigaciones criminales.
La pérdida de especialistas en países de Europa y Singapur hará que la vigilancia de los mercados de habla no inglesa sea un desafío particular.
Estos especialistas trabajaron en estrecha colaboración con gerentes e ingenieros de productos dedicados para crear herramientas y automatización para detener la propagación del material, así como con contratistas externos que ayudaron a clasificar las publicaciones que informaron los usuarios. Si bien solo unos pocos empleados fueron echados en la primera ronda de despidos, el equipo fue diezmado cuando Musk pidió a los trabajadores de Twitter que se comprometieran con una cultura “incondicional” o de lo contrario perderían sus trabajos. La gente dijo que Musk no creó un entorno en el que el equipo quisiera quedarse.