OPINIóN
Inteligencia Artificial

Lenguaje: "Opacidad y translucencia"

¿Es posible interpretar las palabras a la luz de aquellos factores contextuales que no están contenidos en su significado literal?

Inteligencia artificial 20210730
Inteligencia artificial. | Gerd Altmann / Pixabay

¿Es el lenguaje el resultado de “miles de pequeñas mutaciones” como sostiene Rorty en The Linguistic Turn? ¿Son las palabras etiquetas ligadas a conceptos según la perspectiva tradicional denominada núcleo de la metafísica occidental en términos Derridianos? O como sostiene Russell: “las palabras no son necesarias más que para expresar el pensamiento; son (por así decirlo) transparentes y nada se dice con respecto a ellas. Tal es el uso ordinario y cotidiano del lenguaje”.

¿La inteligencia artificial suplantará al escritor?

¿Podemos hablar de la opacidad, translucencia o transparencia del lenguaje? ¿Es el texto “una ventana” hacia el mundo que lo describe?  O como afirma White en The Edge ofmeaning (2001): “El lector es llevado al límite del lenguaje que se está utilizando, al límite del propio lenguaje, quizás, donde puede empezar a verlo como hecho, como elegido, como el material con el que la mente puede trabajar. El lenguaje pierde la transparencia que normalmente tiene y se vuelve opaco, o tal vez mejor, translúcido.” 

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

¿Es el lenguaje un “vitral” que contribuye a la manifestación e intensidad de diversos colores y formas donde lo invisible se hace de alguna manera visible? El vitral contribuye al “color” del mensaje que se transmite y, sin embargo, la cualidad de translucido revela al mismo tiempo que distorsiona el mensaje (Ricoeur, 1974). Y aun así la calidad del mensaje, su significado puede manifestar algo innovador, inspirador y creativo que puede romper no sólo las estructuras del lenguaje, sino también las estructuras previas de la realidad (Ricoeur, 1978). “La erupción de lo que produce extrañeza en nuestro discurso” (Ricoeur, 1975).

Exégesis: lo explicable y lo interpretable

¿Es el contexto -lingüístico, estructural, funcional, social, cultural, histórico- una forma de acercarnos al significado de las palabras? ¿Es posible interpretar las palabras a la luz de aquellos factores contextuales que no están contenidos en su significado literal? Si asociamos el significado específico de los elementos, digamos, contenidos en S, su sintaxis y su orden particular, esta conexión cercana codificada en el significado oracional y lo que el hablante quiere transmitir forjará entonces una relación directa entre los componentes semánticos y pragmáticos preservando su composicionalidad. En una mirada más general, la realidad lingüística indica que las suposiciones y expectativas contextuales específicas interactúan con las convenciones lingüísticas establecidas de manera más íntima y profunda, donde empleamos palabras para expresar nuestros pensamientos que, en muchas ocasiones, se alejan del significado convencionalmente codificado.

Magnos vocabularios…

¿Es “lo que se dice” lo que se quiere decir? o ¿es “lo que se dice” atribuible al significado prístino en el orden de la interpretación? En efecto, será preciso delinear una definición “operativa” de “lo que se dice”. Cabe recordar que, el lenguaje polisémico en su naturaleza está caracterizado por su sensibilidad al contexto, entendiendo por contexto no solo el lingüístico sino también el horizonte de realidad que rodea la situación comunicativa. El proceso de interpretación estará marcado por la ambigüedad que parece ser la contracara permanente del lenguaje polisémico, donde claramente ambigüedad y polisemia no son sinónimos. Cada vez que atribuimos un significado al texto a ser interpretado “resucitamos”, de alguna manera, el contexto original del lenguaje promulgado para reestablecer el significado original donde se pondría en juego la comprensión contextual compartida por todos los hablantes de una lengua. Ahora bien, de ser así, estos conocimientos comunes permitirían, en cierto sentido, la “autonomía semántica del lenguaje”, su capacidad de ser comprendido independientemente de la situación particular de uso (Schauer, 1991). Sin embargo, el contexto externo es el que nos lleva a la determinación interpretativa sobre el significado original del texto (su contexto original) o el contexto compartido por los hablantes.

Integración lingüística

Uno de los grandes desafíos, según los teóricos de las ciencias de la computación, es transferir este fenómeno lingüístico sensible al contexto. Es importante destacar que existen diferentes tipos de metáforas. Algunas metáforas son de uso tan frecuente que pueden convertirse en una significación usual aceptada por la comunidad lingüística, estas son las llamadas metáforas lexicalizadas o muertas, mientras que otras son creativas y suponen el uso de palabras de forma inesperada, una innovación semántica creadoras de sentido: las metáforas vivas. Aun cuando se trate de una metáfora lexicalizada, la potencialidad de la metáfora como estrategia discursiva de no decir o decir de manera encubierta aquello que los hablantes piensan dadas las características del contexto problemático de algún modo modaliza la fuerza del mensaje, pero no así su contenido y en el caso de un contexto no problemático, cumple la función de ser un instrumento para legitimar la visión dominante.

La Real Academia Española diplomará a los robots que hablen bien español

¿Es posible diseñar un modelo que utiliza representaciones semánticas de una palabra dentro y fuera de contexto para predecir su metaforicidad? Desde la perspectiva computacional, la metáfora es concebida como un dispositivo que permite proyectar la estructura de un dominio de origen a un dominio de destino. Los enfoques para la detección automática de metáforas se han centrado en la elaboración manual de un conjunto de características informativas para cada palabra y en la aplicación de un algoritmo de aprendizaje automático supervisado para clasificar las palabras como metafóricas o no metafóricas. Los métodos de aprendizaje profundo también han sido empleados para la detección automática de metáforas. Modelos como BERT, GPT2, XLNet, si bien, logran una performance notable en tareas de NLP, tiene sus ventajas e inconvenientes que vale la pena explorar en el contexto de la detección de metáforas. Todo esto indica que hay un largo camino por recorrer donde sin dudas encontraremos “vientos de frente” o tendremos que “cambiar la velocidad”.