OPINIóN
Lenguaje computacional

Exégesis, lo explicable y lo interpretable

¿Cuál es la importancia de la “interpretabilidad” de un modelo explicativo? ¿A qué llamamos un “buen” modelo explicativo? ¿Qué constituye una “buena explicación”? son algunas de las cuestiones que investigadores tanto del mundo académico como de la industria intentan resolver.

Trabajando
Lenguaje computacional | Karolina Grabowska en Pixabay

¿Es la finalidad de la interpretación la búsqueda de lo que el autor quiere trasmitir? O en palabras de Eco en Los límites de la interpretación: “lo que el Ser dice a través del lenguaje, sin admitir, que las palabras del Ser sea definible según las pulsiones del destinatario”.

Un discurso, por ejemplo, podría tener distintas interpretaciones, una pluralidad de sentidos que podrían estimular infinitas interpretaciones, si esto es así: ¿Cuál es el límite? ¿De qué depende la interpretación? ¿Se puede pensar en la univocidad de la interpretación?

Consideremos la interpretación como esa alternancia entre fases de comprensión y fases de explicación, un proceso completo englobante. Cuando explicamos algo a alguien lo hacemos con un determinado fin, que pueda entender y de esta manera pueda comunicarlo a otra persona.

Como sostiene Ricoeur en Écrits et Conferénces 2: “la comprensión y la explicación tienden a traslaparse y a invadirse una a la otra”. Se trataría de una incipiente polaridad mediatizada donde cada término comprensión-explicación representa un irreductible modo de inteligibilidad. Si bien este par dicotómico se encuentra en campos paradigmáticos de aplicación diferentes: por una parte, la explicación marcada por el dominio analítico, de reglas, leyes y estructuras, por el distanciamiento hacia el objeto de estudio, por otra parte, la comprensión como proceso circular dirigida hacia la unidad intencional del discurso, pertenecen a un mismo “arco hermenéutico”. La comprensión es el momento no metódico que precede y cierra la explicación. La explicación encierra analíticamente la comprensión.

El pensamiento computacional

En relación a lo mencionado, los modelos explicativos resultan apropiados para la codificación y decodificación del discurso donde se intenta saber si el juego del lenguaje contiene una intención, un motivo o fin, una causa o un acontecimiento. Considerado como acontecimiento, todo discurso  tiene una existencia “fugitiva” y, sin embargo, puede ser identificado y reidentificado. Todo discurso procede de una unidad más pequeña: la frase. Concebido así, entonces, diremos que un texto es una serie de frases que adquiere significaciones potenciales en virtud de sus usos en contextos específicos. La acción contextual permitirá “crear” una significación que existe únicamente en ese contexto. Dicho esto, ¿hasta qué punto la explicación e interpretación de un discurso podrían pensarse como procesos similares? o ¿harían referencia a estrategias distintas, en otras palabras, a  niveles estratégicos diferentes en tanto modelos explicativos e interpretativos? ¿Dónde radica el valor intrínseco en cada caso?

Tiempo y lenguaje

Trasladado al plano computacional, ¿cómo funciona ese anclaje entre la teoría y la praxis?, ¿cuál es la importancia de la “interpretabilidad” de un modelo explicativo? ¿A qué llamamos un “buen” modelo explicativo? ¿Qué constituye una “buena explicación”? son algunas de las cuestiones que investigadores tanto del mundo académico como de la industria intentan resolver. Según Miller (2017), en su artículo Explanation in artificial intelligence: Insights from the social science, una buena explicación intenta dar respuesta a preguntas que buscan una causa, una razón, una justificación, el por qué. En la cotidianeidad encontramos claros ejemplos que pertenecen a diferentes contextos situacionales ¿por qué el tratamiento de un paciente no resultó efectivo? o ¿por qué el banco no otorgó el crédito solicitado? Para dar respuesta a estos interrogantes es requisito evaluar diferentes tipos de datos, identificar variables, métodos, y determinar cuál es el mejor modelo que cumpla con los criterios de transparencia, fidelidad, consistencia, representatividad, novedad, comprensibilidad y robustez, que elimine la opacidad de las denominadas “cajas negras” y que extienda su valor más allá de lo predictivo.

Las palabras y las cosas

En su esencia, un modelo explicativo computacional replica esas condiciones observables en una teoría del discurso como acontecimiento delimitada por la situación contextual aplicable a casos de la vida real, donde la comprensión pasa a ser una propiedad cumpliéndose la ley de cierre donde la explicación engloba a la comprensión y donde el método interpretativo se aplica luego del entrenamiento del modelo (post hoc) y que muestra que son estrategias diferentes al momento de aproximarse a la resolución de un problema. Se cumple así el cierre triádico explicación-comprensión-interpretación, en el cual los agentes que explican e interpretan pertenecen a instancias diferentes y donde la interpretación permite extraer y formar un conocimiento adicional capturado por el modelo explicativo.