Soberanía digital

Denuncia a Google: dudas y cuestionamientos sobre sus procesos de verificación automática

El juez Andrés Leonelli fue acusado de tener material de abuso sexual infantil cuando se trataba de material provatorio de una causa penal que llevaba adelante. Luego de estar denunciado él mismo, los interrogantes sobre la fiabilidad de los sistemas automatizados está cada vez más en duda

Andrés Leonelli Foto: justiciatdf redes sociales

Google denunció a un juez de Tierra del Fuego por tenencia de material de presunto abuso sexual infantil en su cuenta de Drive, pero la causa terminó en una contrademanda a la plataforma por falta de control humano.

En 2016, el juez Andrés Leonelli tuvo que enfrentar una causa judicial por tener guardado en su cuenta de Google Drive material de presunto abuso sexual infantil. En 2025 fue sobreseído de la causa al ser declarado inocente.

Sin embargo, actualmente la preocupación radica en otro aspecto de esa denuncia. La denuncia fue iniciada por el propio Google, por detectar los documentos y fotos, sin la posibilidad de discernir el contexto del cual provenían, que según declaró el juez eran cuestiones laborales.

"Cara la jodita": Santa Fe ya cobra a los padres de alumnos que hicieron amenazas en escuelas

En ese sentido, el reclamo se abrió sobre el sistema automatizado de la plataforma, que detectó el material “sospechoso” en la cuenta y la suspendió automáticamente. Según la demanda, Google no distingue el contexto, sino que trata el contenido como ilegal, más allá de su origen, lo cual sería una evidencia de un actuar negligente.

“Es decir, Google no solo omitió el deber de informar y procesar mis reclamos y descargos, sino que descontextualizó información obrante en su propia plataforma y en sus registros de la web que sugería de forma inequívoca que las fotografías llegaron a mi computador institucional por canales oficiales, para fines relativos a mi función de juez”, declaró Leonelli.

Además, la automatización genera reportes con consecuencias reales, sin control humano previo. “El ciego seguimiento a un proceso automatizado que viola los principios exigidos por el derecho internacional de los derechos humanos aplicable” y agregó “el sistema sin control humano adoptado por la demandada y/o negligencia o malicia de alguien dentro de su organización que procesó deficientemente la información”.

En ese contexto, la transparencia algorítmica vuelve a posicionarse como una temática clave. El reclamo gira en torno a la falta de control humano sobre las decisiones automatizadas que afectan derechos, y que además deberían poder explicarse.

Luis Caputo admitió que la actividad económica "dio mal" pero anticipó inversiones

“Debe garantizarse la explicabilidad y trazabilidad de los sistemas automatizados cuando sus decisiones afecten derechos fundamentales”, detalla la denuncia.

Asimismo, detalla que la automatización no elimina la responsabilidad: “En el ámbito digital, dicho deber comprende no solo la seguridad técnica de los sistemas, sino también la protección frente a riesgos derivados del funcionamiento automatizado del servicio”.

El caso reabre una discusión que excede a Google y al expediente del juez Leonelli. Lo que está en juego no es solo cómo actúan las plataformas, sino también cuánto poder se les concede para tomar decisiones sobre derechos, reputaciones y legalidad sin mediación humana. En esa tensión entre automatización y garantías, la soberanía digital empieza a jugarse menos en la innovación tecnológica que en la capacidad de los Estados para exigir control, contexto y responsabilidad.

RG