El criterio humano es el nuevo activo de lujo en la era de la IA
Mientras las empresas invierten millones en automatización, fallos judiciales recientes en EE.UU. y Canadá revelan un costo oculto: la responsabilidad no se delega. Por qué la intuición experta y el juicio ético se han convertido en la última frontera de la rentabilidad.
Ya no se discute si vamos a usar Inteligencia Artificial, sino cómo vamos a sobrevivir a ella. Los titulares apocalípticos insisten en que la IA viene por nuestros trabajos, pero la realidad —respaldada tanto por la ciencia del comportamiento como por la jurisprudencia reciente— es más sutil: la IA viene por nuestras tareas algorítmicas, no por nuestro criterio.
Lo que queda para el líder no son las sobras, sino el plato principal: las habilidades no algorítmicas.
Creer que la IA puede reemplazar el juicio humano no es solo un error filosófico; es un riesgo financiero grave. El mercado ya está dando lecciones brutales sobre por qué la ausencia de supervisión experta se paga caro. Algunos casos:
La alucinación costosa de Air Canada: Un pasajero consultó al chatbot de la aerolínea sobre tarifas de vuelo y el bot inventó una política de reembolso que no existía. Cuando la empresa intentó defenderse argumentando que el chatbot era una "entidad separada", el Civil Resolution Tribunal de British Columbia falló en su contra en febrero de 2024. La lección fue tajante: la empresa es responsable de su IA como si fuera un empleado humano.
El caso Avianca en Nueva York: Abogados fueron sancionados por el juez P. Kevin Castel en junio de 2023 tras presentar seis precedentes legales inventados íntegramente por ChatGPT (Varghese v. China Southern Airlines, Shaboon v. Egyptair, entre otros). No fueron castigados por usar tecnología, sino por abdicar de su rol de guardianes de la verdad.
El desastre del chatbot Tessa: La Asociación Nacional de Trastornos de la Alimentación de EE.UU. (NEDA) reemplazó en mayo de 2023 a su equipo humano por un chatbot para "escalar" la atención. El resultado: recomendaciones de dietas restrictivas y déficits calóricos a personas con anorexia. NEDA cerró el bot tras el escándalo, pero el daño reputacional fue inmediato.
Batalla de inteligencias: ¿llegó la hora de la reivindicación de la inteligencia humana?
Estos casos demuestran que la IA es un motor de verosimilitud, no de realidad. La tecnología puede ejecutar, pero la responsabilidad (accountability) sigue siendo indelegable y puramente humana.
La paradoja de Polanyi: el foso defensivo del talento
Para entender por qué ciertas capacidades siguen siendo irreplicables, debemos volver al filósofo Michael Polanyi, quien en 1966 lanzó una sentencia que hoy vale oro: "Sabemos más de lo que podemos decir".
Esta es la Paradoja de Polanyi. Se puede reconocer el rostro de un familiar entre una multitud al instante o intuir el momento exacto para cerrar un acuerdo complejo, pero no puede escribir un manual de instrucciones que explique paso a paso cómo lo hizo.
Gran parte de nuestra experticia es tácita; vive en la experiencia, no en la lógica.
Si no podemos explicarlo con palabras (si no podemos "decirlo"), no podemos programarlo en un algoritmo.
También te puede interesar
-
Hongos, la fascinante red neuronal de la Tierra
-
La complejidad del mapa político peronista actual
-
¿Salud para todos o negocio para pocos? El riesgo de privatizar la ayuda humanitaria
-
El salto digital: cómo los países en desarrollo pueden liderar la era de la IA
-
La globalización tecnocrática sepulta el orden mundial que nació en 1945
-
Un par de zapatos dice más que mil discursos
-
La inflación, un detonante anunciado para la salida de Lavagna del Indec
-
La inflación, un detonante anunciado para la salida de Lavagna del Indec
-
Chile y Argentina, el juego de las diferencias