Así como Jorge Luis Borges, en la Biblioteca de Babel (1944) y en El Aleph (1949), anticipó milagrosamente Internet, Raimundo Llull con su Ars Magna, a fines del Siglo XIII, anunció de alguna manera a la computación y la Inteligencia Artificial (IA).
El teólogo y filósofo mallorquino ideó un dispositivo mecánico en el que los sujetos y los predicados de las proposiciones teológicas y sus respectivas tesis se movían a lo largo de guías y se detenían frente a su negación o frente a su afirmación, según correspondiere. Llull sostenía que ese ingenio podría probar la verdad o la falsedad de todo postulado que se planteare.
Casi once siglos después, y a partir de las recientes noticias sobre el ChatGPT y su relativa libre disponibilidad, se produjo una suerte de tormenta de comentarios de todo orden y en todo formato respecto de lo que en 1956 fue llamado IA; parecería que los diálogos planteados con el chatbot interpelaron de tal modo a la sociedad que para algunos pensadores, filósofos o publicistas en general, resultó necesario y tranquilizador encontrar alternativas que dejaran a salvo a la humanidad, en un futuro no tan lejano y distópico, en el que la convivencia con los robots sería habitual y permanente.
Inteligencia Artificial: ChatGPT, popularización, magia y riesgos
No existe una definición canónica respecto de qué es IA. En un sentido muy general, sería la capacidad de procesar información, es decir capacidad de cálculo, memoria, aprendizaje, creatividad y autoconciencia.
Sus aplicaciones van desde un simple video juego hasta los automóviles autónomos, pasando por los mundos virtuales, la robótica y la metrónica, entre otras. Nuestra vida diaria, en estas primeras décadas del Siglo XXI, sería mucho más difícil si no se contase con esas aplicaciones en forma masiva.
No obstante eso, personalidades del nivel de Elon Musk y Yuval Noah Harari han alertado sobre los peligros que la misma podría involucrar, llegándose a proponer “pausar” las investigaciones, al menos en algunas cuestiones o facetas.
En ese orden de ideas, debe recordarse las palabras del físico británico Stephen William Hawking: “El éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar los riesgos.”
Inteligencia artificial y ética
La respuesta fácil a las inquietudes que estos fenómenos despiertan es legislar, dictar normas que regulen la problemática, aunque tengo para mí que la carrera del legislador frente a las novedades tecnológicas será siempre tan poco exitosa como la de Aquiles compitiendo con la tortuga.
Si bien una norma de tal naturaleza puede ser necesaria, más importante y valioso debería ser que fueran la Comunidad Científica y las organizaciones de la Sociedad Civil las que en forma responsable y madura, alerten sobre la eventualidad de la existencia de riesgos y tomaren, en lo que a aquellas compita, las medidas necesarias para mitigarlos.
Lo cierto es que parecería haber un consenso universal en asumir responsabilidades en tal sentido, lo que resulta muy auspicioso.
Que los propios actores involucrados adviertan de los peligros que sus iniciativas científicas y tecnológicas podrían generar es muy valioso, ya que actitudes de tal naturaleza no se han dado en el pasado con otras cuestiones que seriamente afectaron al hombre y su entorno.
Elon Musk fundó X.AI, una start-up de inteligencia artificial
Por su parte, y esto es también positivo, la UNESCO aprobó en Diciembre de 2021 un documento que tituló Recomendación sobre la Ética de la Inteligencia Artificial, y que, como su nombre lo indica, contiene una serie de recomendaciones, entendiendo como IA a las “…tecnologías de procesamiento de la información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales…” y proponiendo que los Estados miembros de la Organización internalicen de alguna manera en los derechos nacionales los principios y normas enunciados en el documento aprobado.
Si bien en textos no unificados, el derecho argentino se ha anticipado a esta temática: la ley 23.592 que penaliza la discriminación de todo tipo, la ley 25.326 de protección de datos personales y la ley 25.467 del Sistema Nacional de Ciencia, Tecnología e Innovación, contemplan algunos de los aspectos que la Organización internacional considera imprescindible regular.
Sin embargo, y recientemente, los diputados nacionales Jimena Latorre y Facundo Manes han presentado ante la H. Cámara de Diputados un proyecto de ley que, a partir de la modificación de la ley 25.467, proponen “regular el funcionamiento ético de los sistemas de Inteligencia Artificial…”.
Independientemente de la bondad de la iniciativa y de su valor como antecedente legislativo, creo que el proyecto adolece de serios defectos, tanto formales como sustanciales.
I.A: los riesgos del progreso son preferibles a los peligros de la regulación
En primer lugar, introducir en un texto legal el concepto de “ética” puede resultar confuso o ambiguo.
El Diccionario de la Real Academia Española define a “ética” en su segunda acepción como “Recto, conforme a la moral” y en su tercera acepción como “Conjunto de normas morales que rigen la conducta de la persona
en cualquier ámbito de la vida”.
Vincular a la moral con el derecho positivo no parece ser una solución adecuada: las soluciones a los dilemas morales dependen de la corriente de pensamiento a la que adscribe cada uno; no será la misma si se optare por una ética deontológica que por una ética teleológica o, en otras palabras, la respuesta de Kant acerca de cómo debe comportarse el hombre no va a ser la misma de Bentham o de Stuart Mill a la misma pregunta.
Wittgenstein, en su conferencia sobre ética de 1929, dijo que ésta es algo sobrenatural, ajena a nuestras palabras que solo expresan hechos, agregando en Investigaciones filosóficas que los pseudo-problemas filosóficos surgen cuando el lenguaje se desconecta de la praxis, funciona en el vacío o se “toma vacaciones”, en una palabra, cuando no se lo emplea para aquello que fue creado.
Es por eso que el uso del lenguaje, más aún en una ley, debe contar con una rigurosidad extrema, a fin de evitar, precisamente, la burla al derecho.
Etica y modificación a la Ley 25.467
En ese orden de ideas, es de señalar que el proyecto propone regular la IA pero no la conceptualizan ni la define a los efectos de la norma propuesta, alternativa que parece poco feliz, ya que, como se dijo antes, no existe sobre ella una definición única y consensuada.
También creo que las salvaguardas que se establecen en el proyectado artículo 3 bis inciso a), más allá de la poca precisión de la frase “El avance de la IA”, ya están legalmente contempladas en el artículo 3 de la misma ley 25.467 y por el artículo 1 de la ley 23.592, el que, vale recordar, reza :
“Quien arbitrariamente impida, obstruya, restrinja o de algún modo menoscabe el pleno ejercicio sobre bases igualitarias de los derechos y garantías fundamentales reconocidos en la Constitución Nacional, será obligado, a pedido del damnificado, a dejar sin efecto el acto discriminatorio o cesar en su realización y a reparar el daño moral y material ocasionados. A los efectos del presente artículo se considerarán particularmente los actos u omisiones discriminatorios determinados por motivos tales como raza, religión, nacionalidad, ideología, opinión política o gremial, sexo, posición económica, condición social o caracteres físicos.”
El texto del inciso b) del propuesto artículo 3a la ley 25.467 que se postula establece que “Paz y justicia. El progreso de la IA deberá asegurar la paz y la justicia entre naciones y no podrá menoscabar la libertad de los seres humanos, ni reducir su autonomía de decisión. Tampoco podrá poner en riesgo la seguridad individual o colectiva, ni dividir o enfrentar a las personas y los grupos, o amenazar la coexistencia entre los seres humanos, los demás seres vivos y el medio ambiente” parecería más adecuado para una declaración de principios de buena voluntad que para una norma positiva.
El artículo 2do del proyecto incorpora un nuevo artículo 8 bis a la ley 25.467, estableciendo que “en cualquier etapa de su ciclo de vida”- sería más apropiado sustituir “ciclo de vida” por “estado de desarrollo”- los sistemas IA deberán ser registrados en la Autoridad de Aplicación de esa ley, la cual podría ordenar “…detener los avances de la investigación, desarrollo o aplicación cuando considere que se vulneran los principios y valores éticos dispuestos en el artículo 3º y 3ºbis.”.
Parecería que una prohibición del Estado a personas del derecho privado a investigar o desarrollar sistemas de IA vulneraría los derecho reconocidos por el artículo 14 de la Constitución Nacional, más allá que, y coincido con los autores del proyecto, el Estado cuenta claramente con legitimación para impedir la aplicación efectiva de un sistema cuando advirtiese que el mismo afectare derechos o intereses legítimos.
Finalmente, la alternativa de “realizar la denuncia ante la SETCIP para la revisión del sistema de IA” en los casos que una persona humana o jurídica que se considerare amenazada o perjudicada por un sistema de IA, sería innecesario visto el artículo 1 de la ley 23.592 antes transcripto y que el tipo penal de amenaza ya está previsto en los artículos149 bis y 149 ter del Código Penal.
Una vez más y sin perjuicio de reconocer las legítimas facultades del Estado en la protección de los derechos que la Constitución de la Nación y los tratados a ella incorporados reconocen, la mejor alternativa frente a los desafíos que plantean las nuevas tecnologías es indudablemente la educación; en ese orden de ideas, en el documento ya citado precisamente UNESCO recomienda firmemente que se impartan conocimientos adecuados en materia de IA, a fin de empoderar a la población en sus derechos y reducir brechas digitales y desigualdades en el acceso a cualquier tecnología digital .
*Abogado y estudiante de filosofía