El Observatorio de Regulación Medios y Convergencia (Observacom) monitorea y difunde casos de censura algorítmica o con intervención humana por parte de las principales plataformas de internet. Solo durante septiembre reportó, en otros, que Facebook bloqueó el hashtag #ACAB (All Cups Are Bastards) utilizado en las protestas sociales en países como Colombia o Chile, contra la represión policial. Se sumó Google, que borró de sus mapas en Street View varios graffitis de protesta en Hong Kong contra el presidente chino Xi Jinping; por su parte Instagram suspendió cuentas de periodistas de Charlie Hebdo por publicar caricaturas de Mahoma y removió la foto de dos hombres besándose por incumplir sus “estándares comunitarios”.
Si estos casos de censura privada amenazan la libertad de expresión, otras formas del funcionamiento opaco de las plataformas, amenazan hasta la salud pública. Según un estudio del periódico brasileño Folha de Sao Paulo, los canales de YouTube con fake news sobre COVID-19 son 3 veces más vistos que aquellos con información chequeada. El algoritmo premia, recomienda y visibiliza a canales con contenidos más atractivos que en general son aquellos que ofrecen soluciones fáciles, mitos o teorías conspirativas sin base científica. Esto es más grave si se tiene en cuenta que Google recibe más de mil millones de consultas sobre salud por día.
Negocios: surfeando la era del algoritmo
Luego del pedido de disculpas de rigor, ante casos como estos las plataformas aducen que se trató, o bien de errores en sus mecanismos de filtrado automático o de acciones legítimas realizadas con arreglo a las “normas de la comunidad”. Parte de esas normas están escritas en los términos de uso de las plataformas, esos textos extensos y en ocasiones cargados con lenguaje técnico-jurídico que, aun cuando leyéramos y aceptáramos a conciencia, igualmente sabríamos que pueden cambiar sin previo aviso.
No se trata de problemas de diseño o fallas en la inteligencia artificial. El mecanismo de funcionamiento es el corazón de su modelo de negocios: las páginas o artículos con teorías conspirativas generan clics y tráfico, que es a fin de cuentas lo que las plataformas ofrecen a los anunciantes que publicitan allí sus productos o servicios. En medio del debate sobre la necesidad de transparentar la forma en que funcionan los algoritmos, Jack Dorsey, CEO de Twitter admitió lo evidente: “los tuits más controvertidos o escabrosos suben naturalmente a la cima porque esas son las cosas en las que la gente hace clic, comparte o responde sin pensar”.
Propiedad intelectual en tiempos de algoritmos
Los usuarios no somos víctimas pasivas de la comandancia opresiva de las grandes empresas tecnológicas, pero tenemos con ellas una relación claramente asimétrica. También la tienen los medios tradicionales –radio, televisión o prensa gráfica– que producen contenidos que son explotados por las plataformas, recibiendo beneficios marginales por ello. La denuncia del empresariado de medios se extiende desde hace varios años desde los países capitalistas centrales hasta medios medianos de países periféricos como Argentina.
El mecanismo de funcionamiento es el corazón de su modelo de negocios: las páginas o artículos con teorías conspirativas generan clics y tráfico, que es a fin de cuentas lo que las plataformas ofrecen a los anunciantes que publicitan allí sus productos o servicios.
Aunque existen acuerdos puntuales entre Google y Facebook con grandes editores de contenidos para que éstos puedan monetizar parte de los beneficios que genera la explotación online de sus producciones, hasta ahora, cada vez que un país se dispone a regular al respecto las plataformas amenazan, por ejemplo, con bloquear la publicación de noticias a medios de prensa del país díscolo. Esto sucede, simplificando, porque muchos Estados también se vinculan con estas empresas desde una posición desigual y subalterna. La capitalización bursátil de Facebook es superior al PBI argentino en dólares, la de Alphabet –el conglomerado que reúne, entre otros, todos los productos de Google–, superior a la de 38 países africanos y la de Amazon, superior a la de 9 países sudamericanos.
Educar en la era del algoritmo
¿Cómo se sale de este laberinto? Advirtiendo lo novedoso de la hora, pero también lo ya conocido. Y en este punto, para los investigadores Diego de Charras y Damián Loreti “la respuesta es la que acuñaron los sistemas de protección de derechos humanos hace ya mucho tiempo”, entre otros, promover la existencia de más fuente; más alfabetización digital y educación mediática; más medios públicos; más apoyos a la diversidad y el pluralismo y, claro, un Estado más presente y menos concentración de la propiedad.
* Investigador de la Universidad Nacional de Quilmes. Becario CONICET.