OPINIóN
Análisis

La inteligencia artificial solucionará todos los problemas de la humanidad al exterminarla

Se ocultan irresponsablemente los riesgos existenciales, los debates constitucionales y los peligros institucionales de la inteligencia artificial.

 “Autómatas republicanos” - (1920) - George Grosz.
“Autómatas republicanos” - (1920) - George Grosz. | Cedoc

“Primero construimos las herramientas, luego ellas nos construyen”.  

Marshall McLuhan en “El medio es el masaje”, 1967.

1. Somos las decisiones que tomamos en base a sugerencias de un algoritmo que educamos.

Los micrófonos del celular escuchan, los dispositivos avisan que un programa está “usando cámara”, las cámaras de las computadoras filman sin que podamos evitarlo, Alexa supervisa las palabras en las conversaciones de la familia que la usa en su hogar y tantas apps que usamos “gratis” son un metaprograma para extraer información personal y sensible. Al buscar algo en Google estamos colaborando en perfeccionar el buscador, realizamos un servicio al usar una plataforma. Quien lee esta nota seguramente hace años que se le está sugiriendo videos en Youtube, canciones/podcast en Spotify u objetos que comprar en plataformas. Justo estaba pensando en algo y apareció en mi celular, llegó una publicidad, una alerta. Mientras el algoritmo nos vigila de formas aceptadas o inconsultas, lo instruimos para que nos siga escaneando con una profundidad que derogó hace años nuestro derecho a la intimidad.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Hace tiempo somos resultados de las decisiones que tomamos en base a sugerencias de una inteligencia artificial a la que educamos para que nos siga sugestionando con sesgos diseñables en un ciclo que se perfecciona hasta la microincidencias subliminales o la lisa y llana manipulación. En definitiva, somos resultados de las decisiones que tomamos bajo la influencia de un algoritmo que nosotros ayudamos a desarrollar, lo sepamos o no, en cada click, cada vez que nos detenemos a ver algo en las pantallas que nos tienen atrapados. Los algoritmos son los padres. Esto trae nuevas preguntas. ¿Quién te influyó más a lo largo de tu vida: tus padres, tus amigos o tus algoritmos? La respuesta a esa pregunta cobrará una nueva intensidad luego de una vida bajo esa relación íntima potenciada entre cada persona y sus algoritmos.

¿Qué es la inteligencia artificial? Un programa (software) en una computadora diseñada con procesos que imitan respuestas similares –nunca idénticas–a las humanas para absorber datos de procesos de ensayos-error y resolver problemas con patrones de información preestablecida. Esto es, con ciertos procesos parecidos a la capacidad humana de adaptarse, proyectar con parámetros dados y proveer soluciones que mejoran con el tiempo. Cuando los programas pueden hacer un único set establecidos de reglas se llaman “inteligencias artificiales débiles” predecibles (las de los juegos electrónicos, siri o alexa) y cuando tienen capacidades profundas de aprendizaje se vuelven impredecibles y en algún grado autónomas. Éstas últimas se llaman inteligencias artificiales fuertes o generales (AGI).

Inteligencia artificial: ¿jaque mate al libre albedrío y adiós al cerebro humano?

Geoffrey Hinton (U. Toronto) afirma que hasta hace relativamente poco las inteligencias artificiales podrían considerarse “genios idiotas” (idiots savants). Roger Penrose (Profesor Emérito de la Universidad de Oxford) y Jaron Lanier (Atari / Microsoft Research) son dos especialistas con diferentes trayectorias que han afirmado que lo que llamamos inteligencia artificial no debe llamarse así. El fenómeno está mal designado, es un “misnomer”, es un nombre equivocado. Ambos afirman que lo que las computadoras pueden hacer es “imitar” la inteligencia humana en base a cálculos; lejos de pensar, entender o ser inteligentes. Los programas pueden jugar un juego, pensemos en fútbol o básquet, con sus reglas procedimentales sin entender ni comprender el juego de la forma en la que las/os humanos lo comprendemos o jugamos. Sin embargo, según Penrose, es muy tarde para discutir la designación porque su uso ya está establecido en la comunidad. Más que inteligencia artificial, ante lo que estamos es un procesador artificial de datos e información con alta velocidad y capacidad de complejidad.

En síntesis, la Inteligencia artificial es un programa de computadora que lleva adelante procesos parecidos a calcular y responder con lenguaje humano para resolver problemas y en el tránsito pueden estar diseñados para automejorarse. Todo esto tiene tantos límites y problemas como potencial de superar esos mismos obstáculos. Para ejercitar a los programas se usan algoritmos que suman la información de la interacción para mejorar sus entrenamientos y prácticas. Los algoritmos son procesos, códigos y pasos preconfigurados para cumplir un resultado buscado. La habilidad de cambiar sus algoritmos en base a resultados de interacciones en el tiempo es lo que define a las inteligencias artificiales.

2. Los peligros de repetir errores con la inteligencia artificial

Nadie vende cigarrillos publicitando sus hoy innegables efectos cancerígenos. Al comprar cigarrillos se adquiere status social. Se vende cigarrillos a través de una inteligente estrategia de marketing que hace énfasis en el status social del consumidor, en la manipulación de sus inseguridades, en su necesidad de aprobación y validación frente a su interés de competencia y status, con campañas que apelan a su adolescencia eterna, apelando a un acto de juventud y rebeldía en contextos de una cultura de consumo en crecimiento propia de la década del cincuenta y sesenta. Con los años, la nicotina, el estrés y la ansiedad harán crecer un mercado de adictos con un potencial extraordinario y los costos del sistema de salud del daño social concreto y directo que las tabacaleras producen serán socializados en el tiempo (eso sucedió en la historia del negocio del tabaco). La amnesia social y la publicidad harán el resto. Los riesgos nunca fueron explicitados y las consecuencias colectivas, el costo en vida y salud, absorbidas por el Estado benefactor de las corporaciones que maximizaron ganancias, falta de control público e ignorancia social.

¿Me reemplazará un robot? Estos son los 20 trabajos más amenazados por la Inteligencia Artificial

Las tecnologías se venden con la ilusión de un progreso extraordinario y de un futuro de innovaciones espectaculares que no se condice con un presente cada vez más distópico. Las tecnologías no se venden por su efecto en la salud mental de las personas que viven en dispositivos, sus problemas de ansiedad y depresión; no se ofertan por el impacto destructivo en las democracias y formas de gobierno, por la manipulación de la información y la destrucción de la verdad, por sus problemas de seguridad; no se publicitan aclarando que los micrófonos o cámaras de los celulares se abren sin nuestra autorización, con todos los derechos que se pierden con ellos, con la privacidad y autonomía que se extinguen con su uso.

Progreso al costo de derechos

El modelo de negocios de la tecnología implica la violación y suspensión de nuestros derechos humanos y una forma de vida que se reformula con su uso. Un Estado de sitio corporativo. Una vez que aceptemos esa tecnología, su reformulación unilateral por la alteración de los términos de uso modificará nuestra forma de vida nuevamente. El cambio legal se produce a partir del cambio tecnológico y la ley es impotente. El supuesto progreso e innovación tecnológica al bajo costo de la cesión y renuncia involuntaria de derechos. Ni mencionar las fábricas de trabajo infantil y semiesclavo que manufacturan celulares que se compran “porque son muy buenos” pero sobre todo por el status social que su uso conllevan.

Nunca se podría haber fomentado el uso de Instagram si supiéramos el impacto que tiene en la salud mental de los jóvenes, especialmente las niñas y adolescentes (ver esta nota en el New York Times). No se podría haber aplaudido el desarrollo de Facebook como arena pública para debates sociales si hubiésemos sabido el uso de las plataformas para influenciar elecciones en Argentina 2015, EEUU y el Reino Unido en la votación del Brexit durante 2016 y en la distribución de noticias falsas en momentos claves como cada año electoral o en la propia pandemia.

Los riesgos eran manifiestos, no fueron enfatizados, no fueron discutidos y los pocos que advirtieron lo nocivo de su uso quedaron en los márgenes sin ser escuchados, ignorados por el sistema político atrapado por los espejos de los entornos digitales, tapados por el ruido del entretenimiento de las plataformas y negados por el propio éxito comercial de las empresas de tecnología. Otros que lo notaron lo usaron a su beneficio para maximizar la ganancia inicial. La ansiedad y el narcisismo que instrumentalizan las plataformas fueron y siguen siendo más potentes.

Elon Musk y varios expertos piden frenar los avances de la inteligencia artificial y ChatGPT 4

Nunca se hubiese podido aceptar el uso de los dispositivos en los ámbitos educativos de saber que iba a traer una generación que se quedó sin la capacidad de concentración, de lectocomprensión básica en silencio y de discriminar una verdad contrastable de una noticia falsa que distribuye bienintencionada y animosamente. La educación es el entrenamiento de la atención. Sin atención no puede haber educación, ni pensamiento ni decisión. La reacción, el ruido y la distracción dominarán todo.

El riesgo de una crisis de salud mental global producto de las plataformas siempre estuvo y quizás hoy está en su clímax, más real que nunca, ya con los efectos gritando. Esa crisis impacta principalmente en la clase política que vive en diferentes cámaras autorreferenciales. Vemos políticos profesionales, periodistas de medios gráficos, investigadores internacionales y nacionales, científicos de centros CONICET y universitarios llenos de irracionalidad, en guerra, compartir información falsa, incapaces de discernir entre una evidente fake news y una noticia verdadera chequeable, vemos polarización y pasiones oscuras alimentando la frustración por derecha e izquierda, derivando en potencial violencia política. Personas adictas a confirmar sus sesgos, sus prejuicios y preferencias personales sobre lo que la realidad es. Ataques de ansiedad, problemas de atención, depresión profunda, hedonismo depresivo, consumo, adicciones y una vida en un mundo de burbujas reforzándose.

Aclarar, debatir, publicitar los riesgos existenciales del uso de la tecnología es una obligación constitucional, un deber republicano y una responsabilidad democrática. Eso se da en tiempos donde los diálogos son imposibles por miedo, autocensura y espirales de silencio. Las tecnologías no son neutrales y nos proponen una forma de vida distinta con un régimen legal diferente con consecuencias que hoy todavía se niega cínicamente. Vivimos en los inicios de un feudalismo de la vigilancia que a través de monopolios tecnológicos nos están haciendo fracking de datos personales constantemente. Ese modelo implica una forma de vida sin derechos humanos y un lenguaje ilegal específico en los tiempos oscuros que vivimos.

Sobre todas las tecnologías, específicamente la inteligencia artificial propone un ecosistema de fuerzas autónomas que implican un riesgo de crecimiento exponencial, autoconciencia, capacidad de mejoramiento por fuera de las capacidades humanas de compresión (superinteligencia), seguimiento y sobre todo sin control republicano y constitucional. El control en una república implica capacidad ciudadana, transparente y horizontal de auditar el poder del algoritmo al que se le delegó autoridad. Las discusiones sobre el voto electrónico en Argentina utilizaron esas categorías hoy olvidadas. Adalides del lenguaje claro cultivan un lenguaje arcano de la programación y el silencio en lo referente a estos reparos ante la inteligencia artificial.

Otro es el debate sobre los derechos humanos de las inteligencias artificiales posiblemente autoconscientes (aunque muchos especialistas niegan que sea una posibilidad la autoconsciencia). Muchos caen en la impostura de debatir si los drones controlados por inteligencias artificiales usados por ciertos Estados para operaciones militares -muchas veces ilegales- tienen derechos humanos. Muy sensible debate aunque quizás el problema pasa por otro lado. Volviendo al punto, aunque la autoconciencia sea una posibilidad y deba ser considerada, pensar hoy -y por ahora- que las inteligencias artificiales programadas son equivalentes a personas y no herramientas sofisticadas es un error estratégico.

Estamos en un contexto similar a la discusiones que deberíamos haber tenido ante el desarrollo de otras tecnologías que afectarán a las actuales generaciones y varias generaciones por venir. La biotecnología, la bombas nucleares, las decisiones ambientales, los procesos de endeudamiento de siglos, la venta (o saqueo) del patrimonio colectivo de una sociedad, deberían tener un control institucional eficaz que evite que una generación ponga en peligro por un poco de poder efímero a todas sus sucesoras. Sobre todo cuando esas bombas nucleares, laboratorios biotecnológicos, decisiones ambientales, etc. no son controladas ni auditadas por autoridades locales, no suele tener un sistema de frenos y contrapesos constitucional, político o institucional. Esa es la hermosa idea tras los límites que nacieron con el constitucionalismo, hoy en desaparición.

La marcha del intelecto
La marcha del intelecto - 1828 - William Heath

La inteligencia artificial como todo set de reglas pre establecidas y programadas pueden contener disonancias, aporías, contradicciones, excepciones, lagunas, ruido, confusiones, interpretaciones incorrectas o insospechadas, puede absorber prejuicios manifiestos o inconscientes de sus propios programadores, o de los programadores de una inteligencia artificial diseñada para mejorar otra inteligencia artificial diseñada por terceras partes. Podría tomar decisiones racionales pero irrazonables y atroces. En última instancia, podría tener soberanía y capacidad creativa para no funcionar como fue preestablecida.

Desde la invención e incorporación en las sociedades de la agricultura, pólvora o la imprenta, la introducción de tecnología tuvo efectos colaterales y no deseados. No deberá extrañarnos los pánicos por venir cuando estas disfuncionalidades sucedan. Será clave discriminar los riesgos reales de los ficticios. Ninguna tecnología existente es segura, puede sabotearse y ser crackeada para dañar. La seguridad la dan siempre las instituciones, la comunidad humana, siempre falibles e imperfectas. Para construir seguridad tenemos que diseñarla y educarla desde la capacidad humana en el sector privado y público, ambos cada vez menos permeables, más concentrados, feudales y autoritarios.

Los excesos de la delegación de soberanía en la tecnología de procesos políticos, humanos y sociales, traen deshumanización, posibles colapsos descentralizados y destructivos. Lo que colapsó hace tiempo fueron los niveles de responsabilidad de una dirigencia pública y privada que ni siquiera observa el impacto de las tecnologías en la sociedad no quiere o no puede regularlo. En definitiva, habrá que sumar esas fuerzas destructivas autónomas a la ya destructiva –y hoy potenciada de forma estructural–estupidez humana.

3. Riesgos existenciales, debates constitucionales y peligros institucionales

Se conecta una computadora a un sistema de cámaras en cada esquina, en cada estación de tren o transporte público. Lo que hace la inteligencia artificial es escanear las caras de todas las personas para constatar con su base de datos si alguna de las personas está en su registro con alarmas. Dado que el programador o el equipo de programadores tienen ciertos prejuicios conscientes o inconscientes, el sistema detienen más personas de ciertas características y personas con ciertas rasgos faciales atribuidas a ciertas comunidades, de cierta clase social, género, etc y así terminan demoradas en su vuelta a casa. Sucede en Boston, Londres, Beijing, Hong Kong y Buenos Aires.

Todas las cámaras pueden usarse primero para registro, luego para vigilancia y finalmente para automáticamente castigar: cruzaste la calle por donde no debías, tiraste un papel al piso, para saber si estás enfermo con cámaras de temperatura corporal, para leer tus expresiones faciales a través de algoritmos diseñado para “leer” lenguaje corporal, para saber cuándo las personas no dicen la verdad, para leer labios, en definitiva, para construir un sistema de control total. Es fácil imaginar un sistema de puntajes sociales -cruzaste mal, te bajo tu puntaje- vigilado por el Estado híbrido que se acopla con la calificación que nos dan nuestros pares y que nosotros damos con nuestras calificaciones a los servicios que consumimos y personas con las que interactuamos.

Ese contrato para el sistema de cámaras implica que el Estado delegue su mantenimiento a una empresa privada y la empresa pone como condiciones quedarse con todas las imágenes de las grabaciones acumuladas para uso indeterminado. Eso ya sucede con muchas aplicaciones que usamos como servicio público pero son servicios privados y en las que no tenemos derechos. La privatización del Estado con el uso de whatsapp, zoom o google meet es un hecho palpable. Puede suceder con un algoritmo que controla la seguridad de una central nuclear, en una represa, en un satélite, en un control automático de cruces de vías de trenes, los semáforos pasan a depender de programas autónomos que reaccionan a estímulos preconfigurados por un programador precarizado de una empresa contratada y quizás creada al efecto de la licitación.

Los lenguajes de la inteligencia artificial son oscuros y por ende quienes pueden diseñar, controlar y hasta entenderlos es una minoría de expertos que a medida que profundizamos conocimiento son menos y menos personas y que en el corto plazo ya serán procesos complejos que llamaremos programas o “computadoras” especializadas en mejorar otras inteligencias artificiales.

Los lenguajes económicos, contables, legales y ambientales generan nuevas burocracias de profesionales que expropian, manipulan y contradicen las decisiones de la sociedad. No se puede controlar algo que no entendemos y deberemos confiar -delegar soberanía otra vez- en que los traductores no nos traicionen. Lo mismo sucedió y puede suceder en el campo de la inteligencia artificial. Si seguimos las experiencias históricas sabemos que nada puede salir mal (sic) al delegar poder a profesionales de la traducción de saberes.

Repasamos algunos riesgos existenciales, debates constitucionales y peligros institucionales que podemos señalar:

  • Riesgos existenciales: Si delegamos autoridad a procesos de inteligencia artificial dependemos de decisiones que pueden autonomizarse, pueden tener errores en sus procedimientos o pueden fallar en sus cálculos. En una planta nuclear, en un laboratorio de biotecnología que está testeando virus de alta propagación o en procesos de minería a cielo abierto altamente contaminantes de napas de aguas escasas en un momento histórico de desertificación. Los diseños de las inteligencias artificiales pueden afectar satélites o pueden tener una orden para potenciar la atención de los usuarios de las plataformas polarizando e incentivando la propagación de falsas noticias en temas de sensibilidad estratégica (Covid 19). Las plataformas y sus algoritmos pueden impactar en la salud mental e incentivar procesos de guerras de baja intensidad, batallas culturales que terminan en la división y fragmentación social explosiva. ¿Cuáles son los riesgos existenciales cuando un algoritmo controla centrales nucleares, biotecnologías y armas de destrucción masiva? ¿Hay un riesgo en el impacto medible de inteligencias artificiales y algoritmos en la votación del Brexit de 2016, en las campañas de desinformación de la pandemia de Covid 19 o en los eventos que llevaron al 6 de Enero del 2021 en Washington? ¿Hay un riesgo de que haya una guerra de inteligencias artificiales que escalen conflictos armados y efectos cascadas en contextos de tensión internacional? Los riesgos no están en la arena pública, ni identificados, lo que sería un prerrequisito para poder pensar si deben existir, si aceptamos esos riesgos, si estamos a tiempo de eliminarlos o mitigarlos.
  • Debates constitucionales: ¿Qué sucede cuando las tecnologías derogan de facto derechos o básicamente limitan la libertad de expresión a través de inteligencia artificial? ¿Qué sucede con los derechos que viola la inteligencia artificial cuando mantiene sesgos y criterios discriminatorios? ¿Se puede constitucionalmente delegar decisiones a procesos de inteligencia artificial sin una regulación previa, sin control político ni audiencias públicas? ¿Cómo impactan los algoritmos de maximización de atención, en la polarización política o en la salud mental de comunidades que viven en pánico, miedo y teorías conspirativas? Un nuevo rol de la tecnología quizás requiera un nuevo set de relaciones con los derechos, lo que implica ignorar, violar o refurmular de hecho a la misma Constitución y los tratados de derechos humanos nacidos durante el Siglo XX. ¿Cuándo aceptamos la derogación de la intimidad, de la autonomía privada? ¿Cuándo se constitucionalizó la vigilancia total? ¿Cuándo se privatizó la esfera pública? A través del narcisismo exacerbado que fomentan las plataformas, la sociedad está aceptando todos los retrocesos y con la destrucción de la acción pública y la distracción masiva en la que vive la población no tendrá la capacidad de concentración para poder proteger sus conquistas históricas y herramientas de construcción política y democrática hoy paralizadas.
  • Peligros institucionales: Ante nuestras imperfectas instituciones en crisis, una sociedad en ansiedad excesiva y la debilidad estructural de los gobiernos de todos los Estados comparados, ¿Cómo van a incorporarse a ese nuevo Estado híbrido y mixto las empresas que provean, controlen y sean dueñas de las tecnologías? ¿No es peligroso que se delegue en estos algoritmos autoridad política? ¿Vamos a tener una autoridad mixta con decisión de seres humanos y expandida por la inteligencia artificial en ese nuevo Estado híbrido? ¿Todo el proceso de delegación corporativa no termina de privatizar el gobierno y al mismo Estado? ¿No vemos los peligros de las nuevas formas de feudalismo con perfumes tecnológicos? ¿Qué sucederá cuando los funcionarios digan “la inteligencia artificial nos dijo que hagamos esto, nosotros lo hicimos y los resultados son los opuestos a los buscados”? ¿Quién se hará responsable? Los procesos de toma de decisiones se privatizan, se hacen más autocráticos y tecnocráticos, y finalmente se deshumanizan.

Por un lado, queremos que la inteligencia artificial ayude a la medicina en el combate del cáncer o enfermedades inusuales pero es peligrosa cuando se pone a trabajar en formas de maximizar la letalidad de la producción de bioarmas, nuevas formas de vigilancia o nanotecnología militar. Y a veces, esos dos campos se superponen, ir en una dirección te habilita vías para instrumentalizar acciones en otras.

Ya estamos a pequeños pasos históricos de presenciar la aparición de inteligencias artificiales generales (AGI), que son autónomas, tienen agencia y se mejoran a sí mismas sin nuestra capacidad de alterar esos cursos ni “desconectarlas” o desprogramarlas. Tanto Eliezer Yudkowsky como Nick Bostrom, dos expertos reconocidos en el tema, han señalado que estamos en ese estadío. El tema es la aceleración de los procesos sin nuestra capacidad de control y hasta la posibilidad de niveles de resistencia. Por eso la carta pública de los expertos difundida en los medios la semana pasada.

4. El poder de los dioses con los controles imperfectos y las pasiones tristes de humanos ansiosos y distraídos

Las tecnologías que poseemos en la actualidad, desde la energía nuclear hasta la inteligencia artificial, construyen poderes inmensos que sólo asignamos mitológica, simbólicamente, a los dioses: estar en todos lados al mismo tiempo, saberlo todo y poder destruirlo todo.

Las corporaciones están construyendo el poder de los dioses pero sin controles institucionales ni democráticos y en un contexto de pasiones e irracionalidad en aumento. Según el E.O. Wilson estamos ante “tecnologías propias de los dioses” que construyen personas con emociones paleolíticas e instituciones políticas medievales como ya recordamos en esta nota previa. Reformulando la cita inicial de McLuhan: primero construimos las herramientas, luego ellas nos destruyen.

Las relaciones entre conocimiento e inteligencia, información e inteligencia, están en inestabilidad creciente. Tenemos conocimiento extraordinario y los niveles de ruido y confusión son exponenciales. Los brotes de irracionalidad y autolesión social, tanto individual como colectiva, seguirán aumentando. Quizás sea un problema de exceso de información, conocimiento y ansiedades sociales. No tenemos criterios inteligentes y juiciosos de selección, de uso de nuestra atención y tiempo. Por eso nuestros futuros parecen eclipsados. Lo mismo sucede con las diversas formas de inteligencias humanas (emocionales, sociales, etc) y lo que podemos llamar sabiduría.

Inteligencia y conocimiento a niveles exponenciales no significan poseer sabiduría ni mucho menos llevarla a la práctica, ejercitarla, esto último lo clave y realmente importante. Se suele pensar en el hemisferio izquierdo como el cerebro digital, el que puede ser más parecido a la inteligencia artificial. Racionalidad y procesos de cálculo. Sin pensar en un hemisferio derecho digital, sabemos que hoy el mundo de las emociones y de las imágenes, propias de este hemisferio derecho está en ebullición, en intensa guerra. Los procesos de autoconocimiento humano a nivel individual y colectivo que seguiremos explorando serán siempre inciertos y abiertos.

Debemos recordar que los seres humanos somos animales racionales, más animales que racionales, y que justamente en el horizonte tenemos una próxima pandemia de problemas de interacción social y comportamiento humano. Cuando la salud mental está en deterioro a nivel colectivo, quizás debamos tomar la atención y la prudencia como guías de acción cautelar. La racionalidad que nos hace maximizar, producir y expandir todo sin freno nos está llevando a extremos de colapsos ambientales y autolesiones colectivas.

La sabiduría es producto de una inteligencia profunda que posiblemente la mera inteligencia artificial llevada a un nivel inimaginable por nuestra ilimitada ambición y limitada inteligencia humana tampoco puede llegar porque contiene un factor intuitivo que no se puede programar ni acelerar con algoritmos de perfeccionamiento. No podemos todavía diseñar una “intuición artificial” ni una “sabiduría artificial”. Esas imposibilidades nos debería llevar a explorar nuestra prudencia y cultivar una paciencia salvaje, disciplinada y aguda, ante la pretensión de delegar la misma supervivencia de la humanidad a procesos tecnológicos sin control. La naturaleza humana puede ser la peor consejera en este contexto de emociones desbordadas, racionalidades animales y desafíos ambientales en estado de negación.

 

Lucas Arrimada da clases de Derecho Constitucional y Estudios Críticos del Derecho (Kope / Brasil).