Soleado
Temperatura:
21º
Ciudad:
Buenos Aires
viernes 06 de diciembre de 2019 | Suscribite
POLITICA / SEGURIDAD
jueves 21 noviembre, 2019

Reconocimiento facial: críticas al sistema y advertencias por riesgos para la privacidad

La Asociación por los Derechos Civiles pidió que se declare "inconstitucional" la resolución que habilitó el sistema de vigilancia de la Ciudad. Los motivos.

por Anabella Gonzalez

El sistema rige desde el 24 de abril, mediante la resolución 398/19 del Gobierno. Foto: Gobierno de la Ciudad

El Sistema de Reconocimiento Facial de Prófugos (SRFP) comenzó a regir desde abril de 2019 en la ciudad de Buenos Aires. El reconocimiento facial, impulsado desde el Gobierno para promover la seguridad en las calles al identificar a personas con pedido de captura, generó críticas y oposiciones por considerarlo una medida que limita los derechos de los ciudadanos que circulan por el espacio público, donde operan las 300 cámaras de vigilancia policial.

El operativo de video vigilancia funciona bajo la órbita del Centro de Monitoreo Urbano de la Policía de la Ciudad de Buenos Aires, y utiliza la base de datos de la Consulta Nacional de Rebeldías y Capturas (CONARC), en conjunto con los datos biométricos del Registro Nacional de las Personas (RENAPER).

La Asociación por los Derechos Civiles (ADC), que promueve los derechos civiles y sociales en Argentina y Latinoamérica, presentó días atrás una Acción Declarativa de Inconstitucionalidad contra el gobierno porteño, por considerar que la tecnología de vigilancia no tiene las bases legales apropiadas, y "afecta gravemente los derechos y las garantías constitucionales de todas las personas que desarrollan su vida en la ciudad", lo que puede impactar también en la protección de datos personales.

Para poner en marcha el SRFP, además, el proyecto eludió el paso por la Legislatura: se implementó el 24 de abril mediante la resolución 398/19, del Ministerio de Justicia y Seguridad. En el pliego de la contratación se adjudicó directamente el servicio a la empresa DANAIDE S.A., por una suma de 1.511.300 dólares.

"La resolución no es una ley, y no puede de ninguna forma la limitación de derechos reemplazarse por una resolución o un decreto, tiene que haber un debate legislativo. Para poder argumentar y sostener la medida, desde el punto de vista jurídico se tiene que detallar cómo puede afectar el reconocimiento facial a la vida de los ciudadanos", argumenta Leandro Ucciferri, abogado y analista de políticas públicas en la ADC, en una charla de la que además participó un representante de la American Civil Liberties Union (ACLU).

Desde el gobierno respondieron que la tasa de efectividad del software "se encuentra por encima del 90%" de aciertos

"No se debatió cómo esto afecta a la privacidad, a la intimidad, ni al debido proceso"

Por otro lado, desde la Asociación por los Derechos Civiles ponen el foco en las tasas de error del reconocimiento facial. Al funcionar con algoritmos que contrastan datos para evaluar si se trata de la persona en cuestión buscada, el sistema corre el riesgo de llegar a un "falso positivo", ya que tiene tasas de error. De hecho, en lo que se detectó hasta el 4/6 en base a 595 casos de alertas, 5 fueron incorrectas por no corresponderse con la base de datos de prófugos.

Ucceferri considera que "no se debatió cómo esto afecta a la privacidad, a la intimidad, ni al debido proceso". "Desde el gobierno de la Ciudad sostienen que no reconocen a toda la población, sino solo a los datos que contrastan con el CONARC, pero sí utilizan los datos biométricos de todos”, apunta el letrado al referirse a las dudas que genera lo que sucede con el tratamiento de los datos del registro, incluso después de que se constata que no son de utilidad.

Si bien desde la gestión de Diego Santilli aluden que "esos archivos son destruidos”, la Asociación plantea la incertidumbre ante lo que consideran una falta de regulación concreta. Ante la consulta de la asociación mediante un pedido de información pública, desde el gobierno respondieron que la tasa de efectividad del software "se encuentra por encima del 90%" de aciertos, algo que desde la organización no gubernamental señalan no poder constatar su veracidad.

El factor de la proporcionalidad es también otro de los puntos clave del litigio que presentaron desde ADC: el hecho de que se esté buscando a 50 mil personas en las líneas de subte que todos los días utilizan un millón de personas, dicen, no es proporcional, y afecta los derechos de todos los ciudadanos que circulan por allí a diario.

Falsos positivos: advierten sobre una ventana de error en el sistema de reconocimiento facial

"No para la opresión y la vigilancia"

Emiliano Falcón, abogado y policy counsel de la American Civil Liberties Union (ACLU) de Massachusetts, disertó este miércoles 20 de noviembre en la ADC, donde habló sobre la tendencia creciente en la implementación de tecnologías de reconocimiento facial, y contó cómo se desarrolla el sistema en Estados Unidos, donde impulsan un reclamo similar.

La ACLU tiene filiales en varios estados de norteamérica, donde se ocupa de la defensa de los derechos constitucionales, y de temas como los derechos civiles, la justicia racial, los derechos de los inmigrantes, la reforma del sistema criminal en Estados Unidos, y la libertad de expresión.

La filial de Massachusetts, explica Falcón, suele sentar precedentes para el resto de los Estados en términos de reformas, regulación de leyes y defensa de derechos. Desde allí impulsan el proyecto "Tecnología para la libertad", enfocado en frenar la vigilancia mediante el reconocimiento facial. "Creemos que la tecnología tiene que desarrollarse para la libertad, y no para la opresión y la vigilancia. En Estados Unidos la vigilancia siempre está dirigida hacia un mismo grupo de personas: es la criminalización secundaria, y la tecnología exacerba esto. Lo que hay que hacer es frenarlo, porque es muy difícil desmontar las estructuras de vigilancia una vez que se establecen", sostiene.

Con ese fin es que proponen regulaciones de la inteligencia artificial a nivel estatal y de sus distintos mecanismos de uso, para evitar el impacto en los derechos y caer además en sesgos raciales y de minorías. "Press pause on face surveillance" (pongan pausa al reconocimiento facial) es la campaña que promueven, con base en tres ejes: crear conciencia, porque muchos ciudadanos no tienen conocimiento de cómo funcionan estos sistemas, trabajar en las prohibiciones puntualmente en cada departamento local de policía (destaca el dato que en EE.UU. hay más de 14 mil), y por último apuntan a la prohibición temporaria del uso del reconocimiento en el estado de Massachusetts, al menos hasta que el Congreso autorice y regule en qué casos puede utilizarse. Un pedido similar al de la ADC en la ciudad de Buenos Aires.

Incluso si funcionara "perfecto", advierte Falcón, el sistema "tiene las mismas consecuencias sobre derechos civiles"

"En Massachusetts, como en muchos otros estados, se utiliza la base de datos de las licencias de conducir para hacer investigaciones criminales. Cualquier tipo de agencia de seguridad puede enviar un email, pedir información en la base de datos y pedir identificación. Eso se hace sin ningún tipo de regulación o control", expone Falcón.

Como antecedente, el policy counsel de ACLU menciona el acceso a los datos de las celdas telefónicas de los celulares, a los cuales la policía tuvo acceso hasta 2018 en ese país sin ningún tipo de regulación. "El fallo que requiere tener una orden judicial para acceder a la ubicación de un teléfono móvil salió el año pasado. Durante los últimos casi 20 años, accedían con un mero pedido a las compañías telefónicas. No puede suceder lo mismo con el reconocimiento facial”, plantea.

Entre las razones para oponerse, define tres problemas: el reconocimiento facial no está regulado, y en segundo lugar "funciona mal". Incluso si funcionara "perfecto", dice, "tiene las mismas consecuencias sobre derechos civiles", pero destaca que "fallan en identificar a las personas": "Tienen un sesgo que demostró que fallan al identificar 1 de cada 3 mujeres de color. Los algoritmos tienen un sesgo: la base de datos donde se entrenan son todas caras blancas y no hay diversidad", asegura.

A.G./ D.S.


Comentarios

Lo más visto

RECOMENDAMOS...

Periodismo puro

© Perfil.com 2006-2018 - Todos los derechos reservados

Registro de Propiedad Intelectual: Nro. 5346433 | Edición Nº 4835

Domicilio: California 2715, C1289ABI, CABA, Argentina  | Tel: (5411) 7091-4921 | (5411) 7091-4922 | Editor responsable: Ursula Ures | E-mail: perfilcom@perfil.com | Propietario: Diario Perfil S.A.