BLOOMBERG
Desarrollos

Una aplicación probará si la IA puede contribuir a mejorar la salud mental

Mientras la inteligencia artificial se filtra cada vez más en la vida cotidiana, una aplicación desarrollada en México apunta a un área particularmente delicada: la salud mental.

Inteligencia Artificial
Inteligencia Artificial | CEDOC

Mientras la inteligencia artificial se filtra cada vez más en la vida cotidiana, una aplicación desarrollada en México apunta a un área particularmente delicada: la salud mental.

Yana, presentada como un “acompañante emocional”, es una aplicación en español que ayuda a abordar los problemas de salud mental de varias maneras, desde una serie de tareas para promover el bienestar, como un “baúl de gratitud” y listas de actividades diarias, hasta técnicas de relajación y un chatbot donde las personas pueden verbalizar sus problemas.

Hasta hace poco, parecía que faltaban 10 años para aplicar la inteligencia artificial en esta área, tanto desde el punto de vista técnico como ético, señaló la fundadora de Yana, Andrea Campos, oriunda de Cancún. Pero la presentación de ChatGPT en noviembre cambió por completo el escenario. Este mes Yana lanzará funcionalidades de IA en su aplicación.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Cómo se aplica la ética en la Inteligencia Artificial

La semilla de Yana, acrónimo del inglés “You are not alone” (No estás solo), se plantó en 2016 cuando Campos, quien ha luchado contra la depresión desde su infancia, tuvo que presentar un proyecto final para su carrera de programación. Había aprendido sobre terapia conductual para su propio tratamiento y monitoreaba si ciertas actividades la ayudaban a sentirse mejor. “Ahí pensé, lo único que está a mi alcance siempre es el teléfono, ¡ya es casi una extensión de mi persona! Y empecé a trabajar en una aplicación”, señaló.

Siete años después, la aplicación tiene 13 millones de usuarios concentrados en 35 países de América Latina, Estados Unidos y España, aunque ocasionalmente hay alguna descarga en lugares tan lejanos como Asia o Europa oriental. Campos desarrolló el chatbot ella misma, probando “guiones” para preguntas y respuestas a personas. Hasta ahora, el chat ha funcionado como un árbol de decisiones, donde se incluyen muchos escenarios posibles —todos examinados por un director clínico—, lo que da a los usuarios la ilusión de hablar con alguien. Cuando se rompe la ilusión, los usuarios a menudo abandonan la aplicación, dice ella.

Además de ayudar a mantener a los usuarios comprometidos, la IA también puede detectar patrones y empoderar a las personas de manera práctica.

Inteligencia Artificial
La creadora reconoció sentirse preocupada por la posibilidad de "que la IA conteste algo que ponga en peligro la integridad de una persona".

“Ahorita, sirve mucho para desahogo y para sentir que alguien me escucha y no me juzga”, señala Campos. “Pero hay mucho más allá que yo quiero lograr. ¿Qué tal si te estoy ayudando a que te preguntes cosas que no te has preguntado? Te estoy ayudando, pero de una manera mucho más personalizada”.

La empresa enfrenta el desafío de monetizar el uso de su chatbot, que funciona con tecnología de OpenAI. Por ahora, el plan es ofrecer un pase diario o una suscripción mensual.

Y, por supuesto, hay cuestiones éticas. Campos dice que en los últimos cuatro meses ha dedicado casi la mitad de su tiempo a trabajar en las consideraciones éticas de incorporar esta tecnología. La empresa ha establecido una serie de reglas. Por ejemplo, si un usuario menciona ideas suicidas, se cerrará el contacto con AI y se dirigirá a la persona a una línea directa o ayuda presencial.

Los primeros efectos concretos que trajo la Inteligencia Artificial al mercado laboral

El equipo también está trabajando con la llamada temperatura de las respuestas generativas. Hay un rango de 0 a 1, donde 0 corresponde a respuestas muy predecibles y 1, a respuestas totalmente impredecibles. Por ahora, las respuestas en torno a 0,6 o 0,8 parecen tocar la fibra sensible.

“Lo que me quita sueño hoy es que la IA conteste algo que ponga en peligro la integridad de una persona”, expresó Campos, y señaló que los adolescentes pueden ser especialmente vulnerables. “Las personas que vienen en la mayoría de los casos están en un estado muy vulnerable, no tienen preeducación emocional para que puedan decir ‘es una falla del robot, no pasa nada, no me lo voy a tomar literal’”.

La responsabilidad es aleccionadora, pero Campos dice que su equipo está preparado para el desafío. La compañía, en la que trabajan 22 personas, ha recaudado US$2,9 millones y está evaluando otra ronda de financiación para este año.

 

Traducido por Bárbara Briceño.