ELOBSERVADOR
Tecnología

¿Puede la IA equilibrar la balanza de la Justicia?

La inteligencia artificial puede ser una herramienta poderosa, pero debe utilizarse con los principios de equidad y transparencia.

2023_02_10_ia_tecnologia_shutterstock_g
Debate. Uno de los desafíos significativos de implementar la IA, es que sea con un sistema justo, que no esté sesgado por ninguna ideología. | shutterstock

En la antigua Roma, la Justicia era personificada por Iustitia, una diosa que sostenía una balanza en sus manos. Este poderoso símbolo representaba la equidad y la imparcialidad, principios fundamentales que guiaron el desarrollo de los sistemas judiciales a lo largo de la historia. La balanza, en su sencillez, simbolizaba la tarea de pesar las pruebas y los argumentos con objetividad, un ideal que, a pesar del tiempo transcurrido, sigue siendo el norte de la Justicia moderna.

Sin embargo, en el mundo actual, los sistemas judiciales enfrentan obstáculos que parecen distanciarlos de aquel propósito. La falta de recursos, la demora en los procesos, la ausencia de criterios estables y las decisiones poco convincentes son algunas de las problemáticas que impiden percibirla equilibrada.

En el comienzo de un nuevo año judicial, las agendas políticas suelen estar cargadas de acciones tendientes a preservar esa imagen romana. A razón de esto, en una época dominada por la inteligencia artificial (IA) resulta oportuno cuestionarse si esta puede ser una herramienta que contribuya a encontrar ese equilibrio.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

La reciente propuesta del ministro de Justicia de la Nación de crear una fiscalía especial para investigar la corrupción de funcionarios públicos, incluyendo el enriquecimiento ilícito, ofrece un escenario ideal para considerar el potencial de esta tecnología. Veamos.

A esta altura es sabido que la IA cuenta con una destacada capacidad para analizar grandes volúmenes de datos y reconocer patrones de información relevante, por ejemplo, similitudes entre planteos de las partes, jurisprudencia aplicable al caso concreto o para decidir mejor. De ahí que, desde hace tiempo, en el mundo se utilizan muchos algoritmos para fiscalizar transacciones, revisar comunicaciones, detectar actividades sospechosas, proponer estrategias de investigación o recrear escenarios delictivos.

No obstante, el tema de su implementación debe abordarse con cierta cautela, en tanto aquellas notas de eficiencia y rapidez no son las únicas razones por las que se pueda medir su éxito.

Los sistemas inteligentes son herramientas que intentan emular el comportamiento humano. En otras palabras, pretenden obtener el mismo resultado que conseguimos nosotros usando el cerebro, al realizar una tarea. Por lo tanto, en la Justicia, para que un software pueda ayudar a decidir conforme a derecho, sus datos de entrenamiento serán, indudablemente, las normas, los principios jurídicos y aquella información que se encuentra reflejada en las resoluciones judiciales que emiten los propios tribunales.

Al mismo tiempo, los datos enumerados deben observar un considerable e inviolable estándar ético. De lo contrario, en lugar de eliminar los errores, la falta de claridad y las injusticias que tanto criticamos, el software simplemente replicará o incluso podría potenciar eso que ya hacemos mal los seres humanos, ocasionando más daño al sistema.

Así, uno de los desafíos más significativos en su implementación es garantizar que estos sistemas sean justos y que no estén sesgados por ningún tipo de ideología. Es más, deviene crucial que los algoritmos sean entrenados y supervisados por equipos multidisciplinarios que puedan identificar y mitigar posibles sesgos –voluntarios e involuntarios– que se encuentren en los propios fallos, como para poder asegurar una decisión equilibrada.

Además, la transparencia y la auditabilidad de estos sistemas es fundamental. En el ámbito judicial, donde cada decisión puede causar un perjuicio irreparable, es crítico que los procesos y razonamientos detrás de las conclusiones que arrojan estos sistemas sean trazables y auditables. Esto no solo aumenta la confianza en las decisiones tomadas por ellos, sino que también asegura que estas decisiones puedan ser revisadas y cuestionadas cuando sea pertinente. Omitir lo anterior podría llevar a un escenario donde las decisiones basadas en IA se conviertan en procesos al estilo caja negra, incomprensibles e inimpugnables.

En este contexto, pues, conviene reformular la pregunta inicial: la cuestión no es si la IA puede hacer que la Justicia sea más justa, sino cómo podemos utilizarla de manera que contribuya a este objetivo. Porque si hacemos que replique los comportamientos que se adoptan en determinadas circunstancias, como algunas sentencias de público conocimiento, ningún sistema informático va encontrar soluciones diferentes por sí mismo.

La clave siempre va a estar en el criterio con el que se implemente y se gestione esta tecnología. No se trata de caer en la falsa dicotomía sobre si la tecnología es buena o mala, sino de entender para qué, dónde y cómo puede ser útil.

Una fiscalía especializada en corrupción podría beneficiarse enormemente con IA. Sin embargo, equilibrará la Justicia siempre y cuando se aborden estos desafíos de manera consciente. La IA tiene el potencial de ser una herramienta poderosa en la lucha contra cualquier desafío que plantea la administración judicial, pero sólo será exitosa su implementación si se utiliza de manera que respete los principios de Justicia, equidad y transparencia que tanto se pregonan.

*Abogado experto en nuevas tecnologías.