Cielo cubierto
Temperatura:
13º
Ciudad:
Buenos Aires
lunes 24 de junio de 2019 | Suscribite
POLICIA / uso de la tecnología en la investigacion penal
sábado 4 mayo, 2019

Falsos positivos: advierten sobre una ventana de error en el sistema de reconocimiento facial

Especialistas en seguridad admiten que pueden producirse algunas confusiones. Desde el gobierno porteño reconocen que esta herramienta tiene una tasa de error “cercana al 7%”.

Claudio Corsalini / Leonardo Nieva

Vigilados. El programa sirve para identificar a personas que tienen problemas con la Justicia, pero no es infalible. La Policía de la Ciudad de Buenos Aires lo utiliza desde el jueves 25 de abril pasado. Foto: Min. de Justicia y Seguridad de la Ciudad de Buenos Aires

La tecnología aplicada a la seguridad eleva los niveles de eficacia, pero no siempre es una garantía. Por ejemplo, una cámara instalada en el sitio preciso puede servir para esclarecer un delito. En cambio, el botón antipánico, diseñado para salvar a una mujer de un riesgo inminente, es efectivo solo si la respuesta del personal es inmediata. Con el novedoso sistema de reconocimiento facial que presentó hace dos semanas el Gobierno de la Ciudad de Buenos Aires pasa algo parecido. Básicamente, porque presenta una ventana de error que arroja “falsos positivos”.

Así como el olfato policial falla más de lo que muchos piensan, el software que entrecruza los registros de 46 mil prófugos con las imágenes de 300 cámaras tiene un margen de error cercano al 7%. ¿Qué significa esto? Que una persona que no posee antecedentes delictivos puede pasar un momento desagradable si su rostro es “compatible” con el de un criminal.

“El primer día reconocieron a 28 personas, después a siete y después resulta que eran cuatro. Me gustaría saber qué pasó con todas las personas que dieron falsos positivos”, se pregunta Gabriel Fuks, director del Programa de Planificación Estratégica en Seguridad de la Defensoría del Pueblo de la Ciudad.

En qué países se usa el reconocimiento facial y el intento fallido de Cristina Kirchner

Fuks explica a PERFIL que “con el sol de frente es difícil el reconocimiento”. “Necesitamos estadísticas que aseguren que no se está avanzando sobre la seguridad de los ciudadanos”, reclama.

Cecilia Amigo, jefa de Gabinete de la Secretaría de Administración de Seguridad del gobierno porteño, reconoce que esta herramienta tiene una tasa de error: “Durante más de cuatro meses hicimos pruebas de conceptos, cambios de escena y fisonomía de las personas con anteojos, barba, capucha, y en esas pruebas la efectividad fue del 93,7%, considerando todos los cambios”, dice a este diario.

Medio segundo. El sistema facial emite una alerta si la cámara reconoce un rostro. Es casi automático: se activa en menos de un segundo. Enseguida un efectivo está obligado a demorar e identificar a esa persona. “Se le pide el DNI y le toman los datos biométricos para confirmar su identidad”, explica Amigo.

El reconocimiento se realiza desde diversos ángulos y condiciones de iluminación, aun ante cambios de apariencia como anteojos, barba, bigote, gorra o sombrero, aseguran desde el gobierno porteño. “El género de la persona se puede detectar en una foto con una precisión del 99% y su edad con una del 95% dentro de un umbral de tres años”, afirman.

Esta herramienta trabaja sobre una base de datos de prófugos provista por el Ministerio de Justicia y Derechos Humanos de la Nación, que cuenta actualmente con información de 46 mil personas. En ese universo delictivo figuran los nombres de 1.500 acusados por delitos sexuales, 1.300 señalados como homicidas y 2.300 como narcos, entre otras causas.

Para el ingeniero Marcelo Torok, perito informático forense, la efectividad del sistema depende también de “la calidad de las cámaras, la limpieza de sus domos protectores, la distancia al sujeto y hasta la vibración del mástil, entre otros factores”.

Cómo funciona el polémico sistema de reconocimiento facial para prófugos

“No es cierto que estos sistemas superen el impedimento de identificación que puede surgir del empleo de gorros, lentes, pelucas, etc. Lo que al ser humano le confunde a la hora de identificar a otra persona le pasa también al control de cámaras”, entiende Torok en su columna de Perfil.com. Sobre los falsos positivos asegura que “todos tenemos un sosías y personas con quienes nos confunden por la calle.  Esto es igual. El secreto está en lograr que el sistema sea efectivo en la detección de los rostros buscados y en que los operadores y funcionarios policiales actuantes sean hábiles en capturar a los prófugos”.

Otro especialista en seguridad consultado por este diario también plantea dudas: “Elige a personas con similares características y marca qué tipo de porcentaje es coincidente con la persona buscada. A esto se lo llama falsos positivos y puede tirar un porcentaje erróneo de alertas. Este sistema está en el límite de los derechos individuales de las personas. Por qué me van a parar a mí si yo no soy un delincuente. Lo peor es que estamos todos siendo observados”. Con este sistema, el fantasma del Gran Hermano aplicado a la vida real no parece tan lejano.

 

Pruebas, fallas y reclamos en el mundo

La eficacia del sistema de identificación facial es un debate global. Claramente no es infalible como un ADN. De hecho, una prueba en la ciudad de Nueva York arrojó datos preocupantes porque el grado de eficacia fue cero. En Estados Unidos se utilizó para identificar a los automovilistas que cometían infracciones y el fracaso fue rotundo. Algo parecido ocurrió en Londres, con una tasa de error del 98%.

China es uno de los países que utiliza esta tecnología para la identificación de personas, aunque también la usa para vigilar a supuestos disidentes del régimen, según denuncian los principales detractores. A nivel mundial no hay legislación sobre tecnología y privacidad.

San Francisco, uno de los principales polos tecnológicos del mundo, busca prohibir este software. Es la primera ciudad que le planteó una guerra a esta herramienta: la Junta de Supervisores  votó la ordenanza para detener la vigilancia secreta (SSSO). En Europa, este mismo sistema fue testeado en un partido de fútbol  con el objetivo de identificar a los espectadores. El grado de eficacia fue del 8%. Perdieron por goleada.

 

Trece detenidos en una semana

El sistema de reconocimiento facial debutó el pasado jueves 25 de abril. Según datos de la Policía de la Ciudad de Buenos Aires, trece personas fueron detenidas gracias a esta novedosa herramienta. Los delitos por los que los buscaban son variados: hay ladrones, narcos, asesinos y violadores.

De acuerdo con estos datos, otras 61 personas que presentaban algún impedimento legal fueron identificadas gracias a esta herramienta pero no quedaron detenidas por decisión de los juzgados intervinientes. Ayer fueron detenidos dos hombres. Uno de ellos cayó en la estación Malabia de la línea B, con pedido de captura por delitos contra la propiedad y defraudaciones.

Al otro lo arrestaron en Chacarita: estaba prófugo desde diciembre de 2017 por robo y tentativa de homicidio.


Comentarios

Lo más visto

RECOMENDAMOS...

Periodismo puro

© Perfil.com 2006-2018 - Todos los derechos reservados

Registro de Propiedad Intelectual: Nro. 5346433 | Edición Nº 4670

Domicilio: California 2715, C1289ABI, CABA, Argentina  | Tel: (5411) 7091-4921 | (5411) 7091-4922 | Editor responsable: Ursula Ures | E-mail: perfilcom@perfil.com | Propietario: Diario Perfil S.A.

Positive SSL Wildcard