TECNOLOGíA
EN LA MIRA

Facebook vs New York Times: la guerra continúa

La red social de Mark Zuckerberg le respondió al diario estadounidense sobre la moderación de comentarios y sus revisores de contenidos.

facebook
facebook | Photographer: Meg Roussos/Bloomberg

Mark Zuckerberg y los ejecutivos de Facebook están "hartos" del The New York Times, dice la prensa estadounidense, después de la guerra que creen ver con las publicaciones del anti-Facebook del prestigioso diario neoyorkino. El enojo se reavivó después de que el NYT publicara en Facebook "una guía paso a paso para romper con" Facebook e Instagram en la que alienta a los lectores a cancelar sus cuentas.

El anuncio patrocinado se produjo después de semanas de artículos del Times que interpretaron a Facebook como un gigante temerario y hambriento de datos, con "poco respeto por la privacidad del usuario o la integridad de la política estadounidense". Cuando se le pidió que respondiera a las críticas, el editor ejecutivo del NYT, Dean Baquet, me dijo que Facebook era "una gran empresa con un poder inusual que se encuentra en medio de algunos de los temas más importantes del día: la privacidad y la interferencia política".

"Muchas de las historias fueron hechas por el equipo de investigación. Otras fueron hechas por reporteros de noticias de negocios que cubren la compañía. Las historias crecieron orgánicamente de las controversias que rodean a Facebook y las elecciones", dijo Baquet. "Como la persona que supervisa la sala de redacción, las únicas discusiones que tuve con Facebook fueron sobre las historias".

Esto no le gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Fuego cruzado

En un reportaje publicado el 28 de diciembre, el New York Times reveló que Facebook tiene una lista de lineamientos secretos sobre lo que sus 2.000 millones de usuarios pueden decir o no decir. El periódico más prestigioso de los Estados Unidos accedió a 1.400 páginas de esas reglas, y dijo que problemas en la redacción y en la manera en que se realiza el proceso de moderación. Las reglas contienen sesgos, omisiones y errores, según el NYT y la red social respondió a las acusaciones señalando que el informe muy está lejos de la verdad.

“Damos la bienvenida al debate sobre cómo ayudar a mantener a Facebook como un lugar seguro donde las personas puedan expresar sus ideas”, dijo Facebook. “Pero ese debate debe basarse en hechos, no en caracterizaciones erróneas”. La red social agregó en una publicación en su blog que “durante años, hemos publicado nuestros Estándares comunitarios, la guía general que describe lo que está y no está permitido en Facebook” y explicó que en 2018 fueron “un paso más allá y publicamos las pautas internas que utilizamos para hacer cumplir esos estándares”.

Facebook le da la razón al NYT cuando señala que las políticas se actualizan constantemente, pero niega que el proceso sea “ad hoc”: “Realizamos cambios en nuestras políticas en función de las nuevas tendencias que ven nuestros revisores, los comentarios dentro y fuera de la empresa, así como los cambios inesperados, y a veces dramáticos, en el terreno. Y publicamos los cambios que hacemos todos los meses”.

Sobre las reuniones que, según el NYT, Facebook realiza para tomar estas medidas -que se celebrarían cada dos semanas- Facebook dijo que en ellas se discuten “los posibles cambios en nuestras políticas” y cuentan con la participación de “expertos de todo el mundo con un profundo conocimiento de las leyes pertinentes, seguridad en línea, antiterrorismo, operaciones, políticas públicas, comunicaciones, productos y diversidad”.

“Sí, los abogados y los ingenieros están presentes, pero también lo están los expertos en derechos humanos, personas que estudiaron el odio y las organizaciones extremistas, ex agentes del orden público y otros funcionarios públicos, y académicos”, dice el informe. “Como parte de este proceso, buscamos la opinión de personas fuera de Facebook para que podamos entender mejor las múltiples perspectivas de seguridad y expresión, así como el impacto de nuestras políticas en diferentes comunidades”.

Sobre el ejército de “moderadores”

“El equipo responsable de la seguridad en Facebook está formado por aproximadamente 30,000 personas, de las cuales aproximadamente 15,000 son revisores de contenido en todo el mundo”, detalló Facebook, aclarando al NYT que los revisores de contenido no tienen cuotas por la cantidad de informes que deben completar: “La compensación de los revisores no se basa en la cantidad de contenido que revisan, y no se espera que nuestros revisores confíen en Google Translate, ya que reciben capacitación y recursos de apoyo”, se defendió Facebook.

 

D.S.