DOMINGO
libro

Mitos sobre la IA

Los cambios que nos atraviesan a diario.

11_01_2026_inteligencia_artificial_juansalatino_g
| juan salatino

Estamos inundados de titulares sensacionalistas: “La IA te va a sacar el trabajo”, “ChatGPT reemplazará a 300 millones de trabajadores”, “Sistema autónomo mata a su operador”.

Noticias que alimentan una narrativa distorsionada y peligrosa. Pero el problema no son solo los titulares clickbait. El problema es que toda esta forma de contar la IA está construyendo un conjunto de mitos que nos impiden ver lo que realmente está pasando.

El primer gran mito es el de la automatización. Creemos que la IA viene a reemplazar tareas completas, a sacarnos del medio. Los medios refuerzan esto constantemente con titulares sensacionalistas y eso se traduce también en las conversaciones cotidianas que tenemos, redundando incluso en malas adopciones o aplicaciones de inteligencia artificial. Solemos pensar qué tarea puede hacer la máquina en nuestro lugar, en vez de preguntarnos cómo puede la máquina amplificar nuestras capacidades. Lo hacemos con una mentalidad de sustitución, no de colaboración. Pero acá está el problema: si pensamos la IA solo como automatización, la estamos pensando mal; y si la pensamos mal, no vamos a obtener su potencial real.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

El resultado de esto está a la vista: una investigación reciente sobre colaboración humano-IA muestra que, en promedio, los sistemas híbridos humano-máquina rinden peor que el mejor de los dos trabajando solo. No mejor, peor. Esto, que podría parecer contraintuitivo, se debe a que combinar humanos y máquinas no es automático. No es meter IA en un proceso y esperar que mejore mágicamente. La sinergia hay que construirla, y es lo que brinda diferencial. Pero no podemos obtenerla si pensamos que las máquinas son elementos que están pensados para reemplazar nuestras tareas.

Y acá aparece el segundo mito: la antropomorfización. Tratamos a la IA como si fuera humana. Creemos que piensa, razona, entiende. Le pedimos que sea empática, creativa, ética. Pero la IA no es algo así como un humano robótico que todo lo sabe. Más bien al contrario: para nuestros parámetros es bastante estúpida. No nos referimos a estúpida de manera general. Sino de una manera muy específica: no tiene cuerpo, no tiene historia personal, no tiene apuestas emocionales en el resultado. No espera nada porque no puede desear. No crea desde la angustia o la alegría. Solo optimiza funciones. Emily Bender y Timnit Gebru lo describieron de forma muy elocuente en 2021: estos sistemas son loros estocásticos, repiten patrones del lenguaje humano sin comprenderlo. Un loro puede decir, quiero agua perfectamente, pero no tiene sed. Lo que está haciendo la IA cuando genera texto no es otra cosa que predecir la siguiente palabra más probable según patrones estadísticos. No porque entienda lo que significa. No hay comprensión, solo correlación matemática y probabilidades. Eso no suena muy humano que digamos.

El tercer mito es el de la simplicidad técnica, creer que aplicar IA es fácil, que basta con usar ChatGPT o contratar un par de licencias de algo para que todo funcione. Pero diseñar sistemas que realmente logren complementariedad (donde humano y máquina rindan mejor juntos que separados) requiere entender algo fundamental: asimetría de información y asimetría de capacidades.

El humano sabe cosas que la máquina no sabe. La máquina puede hacer cosas que el humano no puede hacer. La pregunta no es quién reemplaza a quién. La pregunta es cómo coordinan lo que cada uno sabe y puede hacer. Usar inteligencia artificial correctamente es casi como dirigir una orquesta, implica coordinar con armonía diferentes capacidades sin que eso sea una especie de Frankenstein sin sentido. Hay todo un campo de estudio trabajando en la gran pregunta detrás de esto: ¿cómo hacemos que IA y humanos colaboren mejor? Y lo que sabemos hasta hoy es que esto funciona bien cuando emerge algo así como una nueva inteligencia colectiva; una capacidad del sistema como un todo que no existía en ninguno de sus componentes. Para que esto pase, el equipo híbrido necesita coordinar tres procesos: memoria colectiva (quién sabe qué), atención colectiva (hacia dónde mira el sistema) y razonamiento colectivo (cómo se integran lógicas complementarias). Esto, obviamente, no se da solo. Hay que diseñarlo explícitamente.

Por último, el cuarto mito es conceptual, creer que inteligencia artificial es solo ChatGPT, solo Microsoft Copilot, solo algo que está ahí respondiendo a las preguntas más básicas que tengamos, o disponible para hacernos imágenes de nuestros perros en un estilo particular. Pero IA es, en realidad, un ecosistema enorme de tecnologías, aproximaciones y capacidades. Inteligencia artificial es lo que hay detrás de las notificaciones que nos manda un sistema de e-commerce para ofrecernos comprar un producto.

Es lo que tiene la plataforma de delivery para recomendarnos un restaurante que seguro nos gusta. O son los sistemas que tienen las compañías telefónicas para saber si un cliente realmente se va a dar de baja del servicio o está exagerando su enojo para recibir un descuento. También es lo que tienen los sistemas de venta de pasajes para identificar el precio óptimo para cada comprador y lo que usa Netflix para mostrarnos a nosotros una portada diferente a la que le muestra a un vecino para la misma serie. La IA está entre nosotros escondida desde hace muchos años y sin hacer tanto escándalo. Pero más importante aún, la IA no es solo tecnología, es infraestructura cognitiva. Es la forma en que vamos a pensar, decidir, crear y colaborar en las próximas décadas.

Todas estas malas formas de narrar la IA están generando implementaciones pobres o directamente desastrosas. En las escuelas, donde se enseña “a promptear” o directamente se prohíbe ChatGPT en lugar de aprender a colaborar con máquinas, y reforzar el juicio crítico y el discernimiento humano. En las empresas, donde se automatiza sin pensar en aumentación. En los gobiernos, donde se intenta regular algo que no se termina de entender. En las universidades, donde se piensa que la IA es una herramienta que tienen los alumnos para copiarse en un ensayo.

Estas implementaciones redundan en gente creyendo que nada sirve, en otras teniendo miedo porque les van a sacar el trabajo, y en otras queriendo prohibir algo que no comprenden. Pero hay un problema más profundo: estas narrativas distorsionadas nos están impidiendo ver correctamente la IA. Nos impiden entenderla como lo que realmente es, un factor de cambio civilizatorio.

No es la única causa, pero está provocando un cambio de estado mucho más profundo del que imaginamos. El paso de la modernidad industrial (en la que vivimos hace 250 años) a un tipo de organización social radicalmente diferente.

Esto no significa que dejarán de existir universidades, gobiernos o empresas; pero sí que van a tener roles completamente distintos.

No vamos a seguir pensando en la escuela o la universidad como aquello que nos prepara para el trabajo, porque no siempre fue así y no siempre va a ser así. No vamos a seguir pensando en el Estado como el único factor de organización social, porque no siempre fue así y no siempre va a ser así. Y las empresas no van a ser las únicas que organicen el mundo del trabajo, porque no siempre fue así y no siempre va a ser así.

Lo que está en juego no es aprender a usar ChatGPT; es aprender a pensar en conjunto con inteligencias no humanas. Es desarrollar lo que algunos investigadores llaman “uso crítico”: saber cuándo confiar en el algoritmo y cuándo desconfiar; cuándo agregar contexto humano y cuándo delegar. Entender qué tipo de problemas se benefician de análisis algorítmico y cuáles requieren juicio humano irreductible. Cultivar la capacidad metacognitiva de monitorear tu propia dependencia del sistema, reconociendo cuándo te anclás en sugerencias por pereza cognitiva y cuándo realmente aprovechás su poder analítico. Esta es la diferencia entre usar IA como muleta o como palanca.

Por eso, ahora sí, este libro. No para enseñarte a usar herramientas que van a ser obsoletas en seis meses, sino para ayudarte a pensar diferente; a narrar diferente; a aplicar diferente. Porque si seguimos pensando la IA como automatización, como reemplazo, como magia o como amenaza, vamos a seguir construyendo sistemas disfuncionales. Y vamos a desperdiciar la oportunidad más extraordinaria que hemos tenido en generaciones: amplificar radicalmente las capacidades humanas.

Inteligencia artificial: ¿para qué?

No hay manuales. No hay mapas. No hay recetas. La inteligencia artificial dejó de ser un tema de nicho para ingenieros y programadores. Hoy atraviesa la vida de directivos, docentes, políticos, estudiantes, periodistas y profesionales de todo tipo. Y lo que genera no son certezas, sino preguntas que crecen más rápido que las respuestas.

Cada vez que creemos entender algo, descubrimos que la brújula apunta hacia un territorio nuevo, todavía inexistente. Si estás dirigiendo una organización y tomando decisiones todos los días, probablemente en el último mes te preguntaste más de una vez cómo incorporar inteligencia artificial sin que eso se convierta en una amenaza para tu equipo. Si conviene invertir en capacitación o en licencias de software. Si esas herramientas te van a permitir ahorrar costos, abrir nuevos mercados o mejorar procesos. Y, al mismo tiempo, si implican prescindir de personas que llevan años trabajando con vos y a quienes no querés dejar atrás. Quizá también te preguntaste cómo competir con empresas que ya están usando IA de manera agresiva, sin perder la esencia de lo que construiste.

Si sos docente y te parás frente a un aula, seguramente en algún momento pensaste cómo hacer para que los chicos no usen ChatGPT para copiarse. O si realmente tiene sentido seguir enseñando de la misma manera en que lo hacías hace veinte años.

Tal vez te preguntaste si no podés usar estas herramientas para planificar mejor, personalizar el aprendizaje o motivar a quienes se aburren con lo tradicional. O incluso te preguntaste cómo se educan chicos y chicas en una época en la que cualquier respuesta está a un clic de distancia.

Si estás terminando la secundaria y empezando a decidir qué carrera seguir, lo más probable es que tengas un montón de voces alrededor tuyo diciendo que tenés que estudiar algo vinculado a la tecnología, a la programación, a la inteligencia artificial. Y quizá no tenés claro si eso te gusta, si te ves ahí, si querés dedicar tu vida a eso. A lo mejor soñás con ser contador, abogado, arquitecto o periodista, y no sabés si esas profesiones van a tener sentido en diez años. Y tenés que tomar una decisión ahora, con toda esa incertidumbre encima.

Si sos político y querés transformar, o estás trabajando en transformar tu ciudad, tu provincia o tu país, probablemente también tengas la cabeza llena de dudas. Te preguntarás si la inteligencia artificial va a reemplazar trabajos y cómo proteger a quienes pueden quedar afuera sin frenar el progreso. Si hay que regular ya mismo o si conviene esperar para no matar la innovación antes de tiempo. Tal vez te preguntes cómo podés usar estas herramientas para hacer una gestión municipal más eficiente: desde mejorar el transporte público hasta planificar el espacio urbano con más datos y menos improvisación. O cómo garantizar que los algoritmos que toman decisiones sobre la vida de los ciudadanos lo hagan con transparencia y sin sesgos. Incluso quizá te preguntes cómo mantener la confianza de la gente en un contexto en el que la información puede ser manipulada a una escala nunca vista.

Si ya tenés una carrera construida y sos una ejecutiva de cuarenta años que se ganó su lugar gracias a un conjunto de habilidades muy específicas, tal vez te preguntes si lo que sabés hacer sigue teniendo valor. Si tenés que aprender a usar todas estas herramientas para no quedarte afuera. Si vale la pena invertir tiempo en capacitarte en algo que puede cambiar otra vez antes de que termines el curso. Y, sobre todo, cómo mantener tu ventaja en un mundo donde cada ventaja dura seis meses como mucho.

Y si sos periodista, probablemente te hayas encontrado alguna noche preguntándote si no estás escribiendo tu propia nota de obituario mientras cubrís la revolución de la inteligencia artificial.

Si todavía tenés un valor agregado en un contexto donde una máquina puede escribir más rápido, con menos errores y con más volumen que vos. Si vas a poder distinguir entre información real y contenido fabricado en un futuro donde hasta los expertos dudan.

En definitiva, estés donde estés parado, la inteligencia artificial te está llenando la cabeza de preguntas nuevas. El hilo común es claro: esas preguntas no pueden contestarse desde los marcos mentales que heredamos. Porque esos marcos fueron diseñados para un mundo donde la inteligencia era solo humana, el cambio era gradual y las instituciones tenían tiempo para adaptarse. Ese mundo terminó. Y, sin embargo, seguimos intentando resolver dilemas del siglo XXI con lógicas del siglo XX.

La inteligencia artificial no es una aplicación más en nuestra caja de herramientas. Es un cambio de estado. Como cuando el agua hierve y deja de obedecer las reglas del líquido para transformarse en vapor. Durante décadas acumulamos tensiones, aceleraciones y contradicciones. La irrupción de una inteligencia no humana fue la energía extra que hizo saltar todo.

Cuando nos sentamos a escribir este libro, tuvimos que elegir. Podíamos hacer un manual con las 50 herramientas para aprender a usar IA en tu trabajo –y en seis meses habría quedado viejo, reemplazado por otras 50– o escribir algo diferente. Y la verdad es que elegimos lo segundo, porque creemos que un libro tiene que durar más que la novedad de una aplicación. En otros proyectos, como Apgreid.ai, trabajamos todos los días en lo práctico: en cómo usar la inteligencia artificial para entrenar, para aprender, para resolver problemas concretos. Pero un libro es otra cosa. Un libro tiene que ofrecer algo que valga la pena releer dentro de cinco o diez años, cuando esas herramientas ya ni existan o hayan mutado en algo irreconocible.

Lo que queríamos era dejar una conversación más profunda: no sobre qué botón apretar, sino sobre cómo pensar el mundo que se nos viene encima. Porque si algo tiene de especial un libro es justamente eso: su capacidad de permanecer. En una sociedad tan acelerada, donde todo se descarta rápido, donde los posteos desaparecen al segundo, donde las noticias se pierden en el scroll infinito, los libros son de las pocas cosas que todavía se escriben para quedarse.

Y sentíamos que lo que está pasando con la inteligencia artificial merece ese tipo de discusión. No un tutorial efímero, sino una reflexión que nos acompañe, que podamos volver a abrir cuando necesitemos entendernos un poco mejor en medio del ruido.

Si podemos lograr que este libro no te dé todas las respuestas, pero sí te ayude a hacerte mejores preguntas; si podemos lograr que aunque sea una persona encuentre acá un marco distinto para pensar lo que está viviendo, entonces ya vamos a estar más que felices de haberlo escrito.

Los humanos del presente pertenecemos a una generación de transición que está por meterse en una nueva era, marcada por la existencia de inteligencias no humanas. Y ese será el desafío más grande que nos toque vivir. En las próximas páginas vamos a hacer doble clic sobre tres de los conceptos que mencionamos en la oración anterior.

Una nueva era

Esto no es un libro sobre inteligencia artificial. ¿O sí? En 2020, cuando escribimos nuestro primer libro, La batalla del futuro, que se publicó en 2021, comenzamos diciendo algo parecido: que ese tampoco era un libro sobre tecnología. Probablemente, eso tiene que ver con una intuición que arrastramos desde entonces (y que estos cinco años no han hecho más que confirmar): la tecnología, en el fondo, no es importante por sí misma. Es importante por lo que nos permite hacer, por lo que desata, por las preguntas que nos obliga a hacernos, por las estructuras que pone en crisis. Lo tecnológico es interesante solo cuando se vuelve humano.

Y hoy, más que nunca, lo está haciendo.

Por si no nos conocés, hablamos en plural porque somos dos hermanos que nacieron en la década de 1990 en una familia de clase media argentina y a los que, por alguna razón, les gusta trabajar juntos a pesar de ser muy distintos. Uno de nosotros siempre tuvo claro que quería hacer cosas con tecnología, y así lo hizo.

El otro, que quería pensar cosas vinculadas con la sociedad. Un analista en sistemas emprendedor tecnológico y un politólogo que fueron entrecruzando sus caminos. Hoy, el politólogo trabaja en procesos de adopción de IA en organizaciones y el tecnólogo tiene una empresa de impacto social. Casi como un símbolo de lo raro que es el mundo del siglo XXI.

Aprovechamos esta mirada cruzada sobre las cosas que pasan para escribir sobre un tema que no es ni tecnológico ni social y que al mismo tiempo es las dos cosas. Por eso, y retomando la conversación del primer párrafo, este no es solo un libro sobre inteligencia artificial. No queremos explicarte cómo funciona un modelo generativo, ni por qué se viralizan los deep fakes, ni si ChatGPT te va a sacar el trabajo o no. No venimos a repetir lo que ya leíste en cientos de notas apuradas, ni a escandalizarte con imágenes de robots que te miran fijo. Este no es un libro sobre tecnología, sino más bien sobre humanos. Y, más precisamente, sobre el tipo de humanidad que queremos construir ahora que no estamos solos.

Y es que, como vamos a ver, por primera vez en la historia hay otra forma de inteligencia compartiendo el mundo con nosotros.

Una inteligencia no humana, creada por nosotros, pero que ya no nos necesita para aprender. Una inteligencia que puede escribir, dibujar, crear, responder, decidir, negociar. Una inteligencia que está ahí, en tu celular, en tu empresa, en tu aula, en tus búsquedas. Que está en todos lados y, al mismo tiempo, nadie entiende del todo cómo funciona. Una inteligencia que, como toda tecnología, es espejo: no dice quién es ella, dice quiénes somos nosotros.

Y a veces, el reflejo no es lindo. En los últimos dos años, todo se aceleró. Lo que parecía lejano se volvió cotidiano. Lo que creíamos exclusivo de la ciencia ficción ahora es parte de nuestra rutina, transformando el tono de las preguntas que nos hacemos. Ya no nos preguntamos “si” esto va a pasar, sino “cómo” vamos a convivir con esto. O peor: para qué.

Y entonces, mientras algunos se dedican a regular, otros a monetizar y otros a asustarse, sentimos que hay algo más importante que hacer en este tiempo: pensar. Pensar mucho. Pensar en serio. Pensar con coraje. Pensar no solo en lo que puede pasar, sino en lo que debería pasar. Años de relativismo y positivismo epistemológico han instalado el sentido común de que el deber ser es cosa de moralistas y religiosos. Los científicos, por el contrario, deben describir el mundo que es. Lo interesante es que ya no tenemos una base que nos permita describir lo que no existe.

Tenemos la obligación de crearlo. Porque si esta no es solo una revolución tecnológica, sino una transformación civilizatoria, entonces hay que discutir mucho más que las máquinas. Hay que discutir el sentido. El modelo. El sistema. La sociedad.

Y en esa discusión, no alcanza con tener miedo. No alcanza con decir que nos van a reemplazar. No alcanza con adaptar lo viejo. Hay que imaginar lo nuevo. Y eso es lo que busca humildemente este libro. De ninguna manera agotar esa interminable pregunta, sino más bien hacer un pequeño aporte a su discusión.

Una invitación a pensar, con los pies en el presente y los ojos en el futuro. No para especular. No para jugar a la predicción. Sino para animarnos a hacer lo que más nos cuesta: imaginar un mundo distinto.

☛ Título: Punto de ebullición

☛ Autores: Augusto Salvatto y Mateo Salvatto

☛ Editorial: Lea

☛ Edición: Diciembre 2025

☛ Páginas: 192

Datos de los autores

Mateo Salvatto (Buenos Aires, 1999) es campeón nacional e internacional de robótica, fundador y CEO de la compañía Asteroid Technologies y creador de la app Háblalo, que ayuda a más de 350 mil personas con dificultades comunicacionales.

Es director de Innovación de las escuelas ORT, docente y conferencista. Es analista en Sistemas y obtuvo un MBA del IAE (Universidad Austral).

Augusto Salvatto (1994) es politólogo, autor de La batalla del futuro, País de mierda y La era del malestar, best sellers publicados por Lea en Argentina y Almuzara en España.

Es también consultor en Innovación y Economía del Conocimiento. Coordina programas sobre inteligencia artificial y ciencia de datos en la Universidad de San Andrés y es magíster por la Universidad de Salamanca y Sorbonne Nouvelle III.