Una nueva técnica basada en inteligencia artificial es capaz de traducir imágenes de resonancias magnéticas cerebrales a palabras y frases concretas, según un equipo de investigadores de la Universidad de Texas. Aunque todavía está en fase preliminar, en el futuro podría ayudar a personas con parálisis a recuperar la posibilidad de comunicarse.
La interfaz, desarrollada por el neurocientífico computacional Alexander Huth, rastrea cambios en el flujo sanguíneo del cerebro para medir la actividad neuronal. La fase experimental de la investigación consistió en escanear los cerebros de tres participantes, cada uno de los cuales se dedicó a escuchar 16 horas de podcasts. Con la información obtenida, se creó un conjunto de mapas que permitieron identificar palabras, frases y oraciones vinculadas a aquellos relatos. Los científicos también apelaron a la plataforma ChatGPT para anticipar qué palabra seguiría a las demás en el discurso interno de los involucrados.
Samsung prohíbe a su personal usar IA tras la fuga de datos en ChatGPT
En una segunda parte del experimento, se les mostró una película sin sonido. En un momento, mientras uno de ellos miraba una animación en donde un dragón pateaba a alguien en el suelo, el sistema identificó lo que estaba pasando sin necesidad de que el espectador hablara.
Para mejorar esta técnica será necesario un mayor entrenamiento de los datos y el uso de equipos más prácticos, como electroencefalograma portátiles. La privacidad es una dificultad adicional. Si el sistema lograra decodificar pensamientos espontáneos en tiempo real, directamente estaría leyendo la mente.
“Necesitamos que todos los participantes aseguren que esto transcurra de una manera ética”, pidió Nita Farahany, experta en bioética por la Universidad de Duke. “Puede ser realmente transformador para quienes necesitan volver a comunicarse, pero las implicancias son profundas para el resto de nosotros”.
BL JL