Cuando las encuestas cerraron el 7 de octubre en Brasil, especialistas en políticas, ingenieros y expertos en datos de Facebook Inc. se reunieron en un nuevo espacio de la sede de la compañía de Menlo Park, California, llamado la Sala de Guerra. Mientras monitoreaban tendencias en los sitios de la compañía –como artículos que se viralizaban y aumentos abruptos del gasto en publicidad política- notaron un sospechoso incremento de las denuncias de discurso de odio por parte de usuarios.
Los especialistas en datos dijeron a los expertos en políticas que los posteos maliciosos apuntaban a personas de una zona específica de Brasil, el noreste pobre, la única región en que ganó el candidato presidencial de izquierda. Los expertos en políticas determinaron que lo que decían los posteos iba contra las reglas de Facebook sobre instigación a la violencia, por lo que un representante de operaciones se aseguró de que todo ese contenido fuera eliminado.
La compañía, la mayor red social del mundo, dice que al contar con diferentes especialistas en la misma sala, en representación de equipos mayores y con una coordinación conjunta de la respuesta, fue posible abordar en dos horas lo que de otra forma podría haber llevado varios días, un tiempo que es demasiado valioso durante una elección crucial.
“A todos nos complació ver qué eficientes podíamos ser en lo relativo al paso de la detección a la acción”, dijo el miércoles Samidh Chakrabarti, jefe de compromiso cívico de Facebook, en una reunión con periodistas.
El placer no es un sentimiento que la población de Brasil necesariamente comparte. A pesar de la coordinación más fuerte y organizada de Facebook en cuanto a su esfuerzo por mejorar el contenido relacionado con la elección, el país más grande de Latinoamérica siguió inmerso en la información falsa, en buena medida distribuida a través de los servicios de Facebook. La información falsa eliminada del sitio principal de Facebook seguía prosperando en su aplicación de mensajes WhatsApp, que está encriptada y es virtualmente imposible de monitorear.
Pablo Ortellado, un profesor de políticas públicas de la Universidad de Sao Paulo que ha estudiado las noticias falsas, dijo que Facebook ha hecho buenos avances pero que no ha abordado el problema en toda su dimensión. Piensa que los esfuerzos de la compañía no bastarán para controlar WhatsApp, donde Facebook no ve con exactitud lo que se comparte.
“El problema es que todo el contenido malicioso de la campaña se difundió a través de WhatsApp”, dijo en una entrevista. “Ese fue en verdad uno de los desastres de esta elección”.
Facebook ha hecho algunas mejoras, sobre todo al eliminar cuentas de spam en WhatsApp y marcar los links que se reenvían, dijo Chakrabarti. Sin embargo, algunas de las notas más populares relacionadas con la elección contenían información falsa.
Un representante de WhatsApp dijo que la aplicación trabaja en campañas de educación para contribuir a que los usuarios entiendan qué historias podrían ser creíbles y hace poco redujo de 256 a 20 el límite de cuantas personas pueden recibir un mensaje, lo que podría servir para limitar la viralidad.
Si bien no es una solución completa, la Sala de Guerra simboliza el trabajo de Facebook para despejar la preocupación de la gente en relación con cuentas falsas, información engañosa e intromisión extranjera que ensombrecen la discusión sobre el desarrollo de las elecciones en el sitio.