De Chomsky al Chat GPT
“La excesiva confianza en las respuestas de las herramientas de IA está privándonos de la capacidad crítica y analítica” propia del lenguaje humano. Cuando -por prescindir de estas operaciones mentales- se pierde la capacidad de pensar y reflexionar, el lenguaje se muere y perdemos también el vínculo con la realidad.
Los avances en la IA generativa no dejan de asombrar, pero también nos ponen de cara a una verdad dolorosa: mientras más tareas intelectuales se delegan en la IA, menos pensamiento crítico se desarrolla en las personas. Contrario a una fantasía distópica, la realidad es que delegar funciones exclusivamente humanas como la lectura y la escritura convierte a las personas —y con ellas a las sociedades que integran— en masas amorfas fáciles de pastorear.
En 1957 Noam Chomsky revolucionó la teoría gramatical al hablar de la facultad del lenguaje, es decir, la posibilidad de realización del lenguaje en la mente humana. Dejó de lado las formas particulares de las lenguas del mundo para ocuparse de aquello subyacente a todas ellas: la capacidad del lenguaje.
Y usó la oración “Verdes ideas incoloras duermen furiosamente” para poner sobre el tapete la centralidad de la sintaxis en la conformación de las lenguas naturales: sintácticamente correcta incluso sin decir nada (porque las ideas no son ni verdes ni rojas y mucho menos podrían dormir de ninguna forma).
Quedaba claro que una lengua no es ni remotamente un repertorio de palabras, en todo caso es un conjunto de reglas más o menos finitas que responden, a su vez, a la gramática universal subyacente a todas las lenguas.
El amor, la vida y el consumismo según Noam Chomsky y Pepe Mujica
La del ejemplo es una oración gramaticalmente correcta porque sigue todas las “coordenadas” del español para la formación de oraciones: hay un verbo (dormir), un sujeto (verdes ideas incoloras) que concuerda con ese verbo, y un predicado (furiosamente).
Sin embargo, cualquier hablante de español sabe que en esa oración hay algo que está mal. No hay falla de “arquitectura” —la lógica interna que ordena los componente oracionales en el español: sintaxis—, pero la oración no tiene sentido (a menos que sea una metáfora, por caso).
La noción de arquitectura es la que está en la base de los modelos de lenguaje de gran tamaño (LLM) que conforman las herramientas de IA generativa. Desde ChatGPT hasta Claude, Antropic y DeepSeek, todas están entrenadas con base en información lingüística que se procesa en paralelo, lo que les permite dar respuestas a instrucciones en lenguaje natural (los famosos prompts) a partir de predicciones de contenido.
La noción de “grande” viene dada por la cantidad de información con la que se ha “entrenado” un modelo: la fuente estadística que le permite responder. Esa información se llama “parámetro”. Por ejemplo, DeepSeek (el modelo de IA chino) tiene unos 670.000 millones de parámetros; Claude Mytos (la IA premium de Antropic), 10 billones; ChatGPT empezó en 2024 con 175 mil millones de parámetros con estimaciones actuales de hasta un billón.
Sin certezas, porque las corporaciones son reacias a brindar información sobre los parámetros, prefieren hablar de seguridad, comprensión e, incluso, de capacidad de razonamiento de sus modelos.
Las lenguas naturales son, por definición, abstractas y simbólicas, porque podemos nombrar lo que tiene existencia concreta, así como abstracciones propias de la inteligencia humana.
Chosmky le suma a esta condición la "infinitud discreta": a partir de unos pocos elementos (28 fonemas/sonidos en español) una lengua dispone de infinitas posibilidades de realización siempre con ajustes a las reglas gramaticales que la gobiernan.
Podemos decir lo mismo de múltiples maneras, en un ejemplo rápido, y además podemos incrustar una oración dentro de la otra una y otra vez.
Hasta ahí la IA hace lo mismo: recupera información / palabras, y las ordena estadísticamente en función de qué tendría que ir con qué, un verbo, un sujeto y algo que se diga, básicamente.
El tema es que las personas usamos el lenguaje, ante todo, para comunicarnos con nosotros mismos: pensamos, reflexionamos. Y allí la IA —al menos hasta hoy— no ha llegado.
En ese sentido es que el filósofo francés Eric Sadin, en su libro El desierto de nosotros mismos. El giro intelectual y creativo de la inteligencia artificial, habla de un pseudolenguaje al que llama tanatólogos, porque surge de “análisis estadísticos, ecuaciones matemáticas y esquemas lógicos, basado en un veneno que es el principio fundamental de la correlación”: lenguaje que huele a muerte.
Si la oración “Verdes ideas incoloras duermen furiosamente” nos resulta lo suficientemente extraña como para detenernos a pensar en ella y buscar qué es lo que falla es, justamente, porque podemos pensar en lo que estamos diciendo o leyendo. Ninguno de los grandes modelos de lenguaje ha podido hacerlo hasta ahora; esto explica, por un lado, las alucinaciones propias de la IA (la facilidad de inventar porque ha sido entrenada para responder sin que se le pida ajustarse a la verdad en un sentido más o menos ontológico), pero también que en estos modelos no opera el filtro de la autorreflexión: qué es esto que estoy diciendo, ¿tiene sentido?
El pensamiento como primer uso del lenguaje actúa de filtro justo antes de decir algo, justo antes de convertir el pensamiento en lenguaje oral. De hecho, es común callar cuando se está por decir algo que no corresponde, silenciar una pregunta porque con el solo esfuerzo de pensarla llega la respuesta…
La excesiva confianza en las respuestas de las herramientas de IA está privándonos de esta capacidad crítica y analítica. Los textos escritos por IA se suelen detectar por que se cuelan sugerencias al estilo de “puedo hacer esto por vos”.
Pero hay otras marcas más sutiles y por lo mismo más graves a las que se debe atender si no queremos perder lo que nos humaniza: la capacidad de pensar y pensarnos.
Esas sutilezas tienen que ver con estructuras gramaticales ajenas a la propia lengua, repeticiones que no suman y también oraciones que se enuncian sin decir nada. Leer con sentido es una habilidad que no debemos perder si queremos mantener la autonomía y el discernimiento como valores de la naturaleza humana.
Pero esto no será posible mientras la IA se siga asumiendo como un dios omnipotente capaz de hacer lo que hacemos los humanos por naturaleza: pensar y hablar con sentido.
* Lic. en Letras Modernas (Universidad Nacional de Córdoba); este trabajo fue realizado en el marco del seminario de "Cómo transformar un ensayo académico en un texto de divulgación masiva", que dicta Rodrigo Lloret en el Doctorado de Ciencias Sociales de Flacso.
También te puede interesar
-
Las emociones tristes también forman gobiernos
-
China gana poder mientras Estados Unidos pierde liderazgo
-
La Argentina de la incertidumbre: un país donde la política ya no logra resolver nada
-
Decidir, o la arquitectura de un verbo que creíamos simple
-
Rusia secuestró 16 mil civiles ucranianos de los territorios ocupados por Moscú en Ucrania
-
La célebre Semana de Mayo comenzó el 14, en el puerto y con un periódico sevillano
-
Macri se desmarca del Gobierno y especula hacia adelante
-
Fabricar cerámica y la diferencia entre invertir o cerrar
-
Argentina celebra el día del docente universitario