Mucho se debate sobre el rol que empieza a ocupar la inteligencia artificial (IA) en el campo de la salud mental. Por ello, es imprescindible que, como profesionales, podamos aportar claridad sobre algunas cuestiones.
Los consejos que puede brindar una IA poco tienen que ver con un proceso psicoterapéutico. La principal herramienta en terapia es la relación humana entre terapeuta y paciente. Las intervenciones no penetran solo por el intelecto, sino por el afecto. Es el vínculo transferencial lo que permite que una intervención sea escuchada en el momento oportuno. Ninguna máquina puede leer esos tiempos, generar empatía ni sostener una relación humana con el paciente.
Tampoco puede captar el plano afectivo expresado en el tono de voz, los gestos o la comunicación no verbal, elementos fundamentales para que un señalamiento o interpretación tenga sentido.
Además, la IA carece de capacidad diagnóstica. No accede al contexto clínico ni puede evaluar matices como el lenguaje corporal, la historia de vida o los vínculos personales. En salud mental, estos aspectos son centrales para arribar a un diagnóstico certero. Aquí entran en juego el discernimiento clínico, el juicio contextual y la experiencia humana, factores imposibles de replicar en un algoritmo.
La IA no puede asumir responsabilidad legal ni ética por los posibles errores"
La falta de estas herramientas no solo limita la implementación de un tratamiento adecuado, sino que también puede derivar en riesgos si las intervenciones no están correctamente orientadas.
A esto se suma que la IA no puede asumir responsabilidad legal ni ética por los posibles errores. El diagnóstico es un acto profesional regulado y únicamente los profesionales de la salud están habilitados para realizarlo.
También es necesario destacar la dimensión creativa y espontánea que ocurre en el espacio terapéutico, lo que da la posibilidad de que emerjan temas inesperados y que puedan ser escuchados, leídos e interpretados. Esa cualidad humana es irreemplazable por la tecnología.
En el mejor de los casos, la IA podría funcionar como un recurso de autoayuda, con un buscador simplificado y directo sobre temas de interés. Pero la autoayuda no es tratamiento: no es personalizada, no se centra en la subjetividad, la historia ni el contexto de cada persona.
Finalmente, contar con una aplicación “a demanda” puede generar dependencia y reforzar la idea de que todo debe ser inmediato. Esto no favorece la tolerancia a la frustración ni al manejo de la ansiedad, y puede chocar fuertemente con las realidades del mundo externo.