Paula Litvachky, directora ejecutiva del Centro de Estudios Legales y Sociales, mantuvo diálogo con Jorge Fontevecchia en Radio Perfil en el cual advirtió los problemas discriminatorios y de privacidad qué introducen los avances tecnológicos. También destacó la importancia de dar el “debate público” sobre estas cuestiones, a pesar de que sean “irreversibles”.
A inicios de la semana se detectó el uso ilegal de datos biométricos por parte de la Policía de la Ciudad. ¿Cómo explica por qué esos datos son tan importantes y cómo podría desarrollar la gravedad del asunto?
Este tema se viene discutiendo a nivel global ya que son datos sensibles que puede tener el Estado. La pregunta sería: ¿qué datos acopia, suma a las bases de datos y con qué finalidad el estado los utiliza? Estos datos pueden pasar de algunas dependencias del Estado a otras públicas para que los usen de determinada manera. La discusión tiene que ver con la expectativa de privacidad respecto de lo que hace el Estado con nuestro datos. La Ciudad de Buenos Aires, a través del Ministerio de Seguridad y Justicia, implementó una ley aprobada por la legislatura de la Ciudad sobre el sistema de reconocimiento facial para la búsqueda de personas prófugas.
"Reconocimiento facial: críticas al sistema y advertencias por riesgos para la privacidad"
Y que fue exitoso en ese sentido, ¿no?
Los datos no están del todo claros, pero la Ciudad dice que pudo encontrar personas con pedido de captura. Pero hay discusiones, sobre ese tipo de tecnologías, así como en otras ciudades del mundo: el reconocimiento facial tuvo problemas importantes de discriminación, por como funciona el algoritmo y por los falsos positivos que puede dar. Eso nos llamó la atención en la Ciudad desde 2019, por eso iniciamos una causa judicial con otra organización en donde alertábamos sobre la discriminación y la necesidad de que Ciudad explicara exactamente cómo iba a funcionar ese sistema de búsqueda. Este necesita contrastarse con una base de datos de prófugos y con otra de personas con sus datos biométricos, que es con lo que el sistema puede encontrar a alguien a través de las cámaras de la Ciudad. Para eso, Ciudad hizo un convenio con el Registro Nacional de las Personas (RENAPER).
El sistema de reconocimiento facial corre el software a través de las cámaras de la Ciudad y rebota contra la base de datos de prófugos y el registro del RENAPER, que le envía los datos biométricos para que las cámaras lo puedan identificar. Todo esto sucede de forma automática.
En el marco de la causa judicial, discutimos que Ciudad diera la información de cómo va a funcionar el sistema. Ante un requerimiento, el RENAPER contesta que tiene un convenio de licencia técnica y afirma que migró a más de 9 millones de búsquedas y alrededor de 7 millones y medio de datos de personas. Esto llamó la atención porque es desproporcionado para la finalidad que el sistema de reconocimiento tenía. El convenio también le permitía seguir los datos biométricos sobre las personas que tienen una causa judicial.
Cuando el RENAPER informa sobre las búsquedas que se hicieron, aparecen personas políticas de distintos partidos políticos. Ciudad solicitó búsquedas de la vicepresidenta, empresarios, Estela de Carlotto, cosa que no se explican por la finalidad del convenio. Lo que respondió la Ciudad es que necesita los datos del RENAPER para otras finalidades relacionadas con prevención policial y otros trámites como certificación de domicilios, de identidad, entre otros. Pero no explica por qué aparecen personas conocidas que se supone que no hicieron ningún trámite que requiera este tipo de identificación.
Más allá de las cámaras, la información que tienen las grandes compañías tecnológicas hace que uno asuma que es una discusión abstracta ya que no hay manera de que no se sepa dónde estamos y el Estado trascendió al Gran Hermano. ¿Cómo la tecnología hace que determinadas cuestiones pasen a ser abstractas y que la información no la tenga el gobierno de la Ciudad sino Google o Facebook?
Por un lado, desde la defensa de los Derechos Humanos, es necesario advertir sobre estas tendencias aunque sean irreversibles. Se puede entender que la tecnología avanza y que los estados y empresas acumularon estas tecnologías para diversos fines, a veces altruistas, o buscando la vigilancia estatal o la ganancia privada afectando nuestros derechos.
A pesar de ello, se pueden minimizar estos efectos. Por ejemplo, en la Ciudad de Buenos Aires, a través de una ley tenía que crearse una comisión de seguimiento y control de cómo se aplicaba este sistema de reconocimiento facial. No se creó nunca desde el momento de la sanción de la ley. Nadie sabe realmente para qué está usando la Ciudad nuestros datos. También está en juego la actividad privada porque ese tipo de softwares son implementados por empresas privadas. La discusión es cuánto terceriza el Estado el manejo de esos datos personales.