Ya no se discute si vamos a usar Inteligencia Artificial, sino cómo vamos a sobrevivir a ella. Los titulares apocalípticos insisten en que la IA viene por nuestros trabajos, pero la realidad —respaldada tanto por la ciencia del comportamiento como por la jurisprudencia reciente— es más sutil: la IA viene por nuestras tareas algorítmicas, no por nuestro criterio.
Lo que queda para el líder no son las sobras, sino el plato principal: las habilidades no algorítmicas.
Creer que la IA puede reemplazar el juicio humano no es solo un error filosófico; es un riesgo financiero grave. El mercado ya está dando lecciones brutales sobre por qué la ausencia de supervisión experta se paga caro. Algunos casos:
La alucinación costosa de Air Canada: Un pasajero consultó al chatbot de la aerolínea sobre tarifas de vuelo y el bot inventó una política de reembolso que no existía. Cuando la empresa intentó defenderse argumentando que el chatbot era una "entidad separada", el Civil Resolution Tribunal de British Columbia falló en su contra en febrero de 2024. La lección fue tajante: la empresa es responsable de su IA como si fuera un empleado humano.
El caso Avianca en Nueva York: Abogados fueron sancionados por el juez P. Kevin Castel en junio de 2023 tras presentar seis precedentes legales inventados íntegramente por ChatGPT (Varghese v. China Southern Airlines, Shaboon v. Egyptair, entre otros). No fueron castigados por usar tecnología, sino por abdicar de su rol de guardianes de la verdad.
El desastre del chatbot Tessa: La Asociación Nacional de Trastornos de la Alimentación de EE.UU. (NEDA) reemplazó en mayo de 2023 a su equipo humano por un chatbot para "escalar" la atención. El resultado: recomendaciones de dietas restrictivas y déficits calóricos a personas con anorexia. NEDA cerró el bot tras el escándalo, pero el daño reputacional fue inmediato.
Batalla de inteligencias: ¿llegó la hora de la reivindicación de la inteligencia humana?
Estos casos demuestran que la IA es un motor de verosimilitud, no de realidad. La tecnología puede ejecutar, pero la responsabilidad (accountability) sigue siendo indelegable y puramente humana.
La paradoja de Polanyi: el foso defensivo del talento
Para entender por qué ciertas capacidades siguen siendo irreplicables, debemos volver al filósofo Michael Polanyi, quien en 1966 lanzó una sentencia que hoy vale oro: "Sabemos más de lo que podemos decir".
Esta es la Paradoja de Polanyi. Se puede reconocer el rostro de un familiar entre una multitud al instante o intuir el momento exacto para cerrar un acuerdo complejo, pero no puede escribir un manual de instrucciones que explique paso a paso cómo lo hizo.
Gran parte de nuestra experticia es tácita; vive en la experiencia, no en la lógica.
Si no podemos explicarlo con palabras (si no podemos "decirlo"), no podemos programarlo en un algoritmo.