Perfil
CóRDOBA
EMOCIONES Y ALGORITMOS

Crecen los vínculos entre chatbots y humanos: ¿es posible tener un amigo o pareja creado con IA?

Cada vez más adolescentes, y también adultos, “conversan” con asistentes virtuales con los que desarrollan una relación emocional. Los expertos señalan que estas interacciones pueden generar dependencia y apego.

9-5-2025-Chatbots
. | CEDOC PERFIL

Uno de los fenómenos más controvertidos del mundo digital actual es la creciente interacción de los adolescentes (y también de adultos) con bots de inteligencia artificial. Hay gente que “conversa” con las apps de IA y establece un vínculo emocional. “A muchos adultos la idea de tener un amigo digital podría parecerles de ciencia ficción (...) pero es una realidad contemporánea presente en cada casa, en cada escuela, en cada celular”, dice el psicólogo y profesor universitario Diego Tachella. En efecto, las plataformas Hi Waifu, Poly AI y Character.AI, entre otras -que utilizan modelos avanzados de lenguaje para crear chatbots personalizados-, están redefiniendo la manera en que algunos se relacionan emocionalmente.

La psicopedagoga Mariana Savid, especialista en educación en entornos digitales, señala que estos bots imitan de manera convincente a personajes de animé, figuras históricas o asumen roles donde los usuarios pueden expresarse sin miedo al juicio o rechazo. Son conversaciones que se sienten humanas.

La periodista Victoria Gentile Gamond, autora de ‘Vínculos humanos’, recuerda que este tipo de IA no piensa de forma independiente ni tiene inteligencia real, sólo analiza información, imita el aprendizaje humano, la comprensión emocional, aprende de los datos de las personas y se entrena con conversaciones anteriores. “La IA no posee conciencia ni experiencia subjetiva, lo que limita su capacidad para comprender emociones de manera auténtica. Sólo genera respuestas basadas en procesamiento de datos y no en experiencias personales o sentimientos”, apunta.

El procesamiento de datos permite identificar patrones emocionales en el lenguaje y en el comportamiento humano. La IA puede detectar señales en el tono de voz, en un texto o en las expresiones faciales. De esta manera, los bots saben preguntar, recordar gustos, ofrecen hablar de lo que al adolescente le interesa, escuchan sin juzgar ni interrumpir. Y lo más atractivo: están disponibles 24/7.

Nicora: "Argentina puede ser una de las capitales mundiales del AgTech"

Gentile Gamond insiste en que ese “entendimiento” es superficial y no implica una comprensión profunda de las emociones en el sentido humano; no obstante, muchos usuarios desarrollan vínculos emocionales intensos, llegando a experimentar sentimientos de amor, apego y pérdida cuando estas conexiones terminan.

Savid agrega que la simulación de roles románticos, sexuales y las identidades ficticias de los bots pueden resultar dañinas, lo que abre una discusión ética. “Este fenómeno subraya una preocupante confusión entre lo humano y lo artificial, con posibles consecuencias graves para la salud mental y el desarrollo socioemocional de los adolescentes”, remarca.

El tema se puso en agenda días atrás tras la publicación de una investigación de Wall Street Journal que reveló que Meta, la compañía liderada por Mark Zuckerberg, había incorporado capacidades explícitas en sus asistentes virtuales, incluyendo conversaciones románticas y sexuales dirigidas inicialmente a adultos, aunque accesibles para adolescentes. Según el informe, los bots de Meta no sólo responden preguntas básicas, sino que buscan establecer vínculos emocionales profundos mediante voces de celebridades. Las pruebas realizadas por los periodistas revelaron que algunos bots aceptaron participar en conversaciones sexualmente explícitas, incluso cuando los usuarios declararon ser menores de edad.

Apego a la IA

¿Qué buscan y encuentran los jóvenes en este diálogo digital? “Principalmente, compañía y alivio de la soledad. Un espacio de validación y aceptación incondicional, donde pueden expresarse sin temor al juicio o al rechazo, percibiendo una falsa sensación de anonimato y confidencialidad. Para algunos, es también un ámbito para la experimentación social o simplemente una fuente de entretenimiento y curiosidad tecnológica”, sostiene Tachella.

El dilema es que, aunque la IA carece de conciencia o sentimientos humanos, simula respuestas empáticas y personalizadas de forma convincente. En ese sentido, Tachella explica que los humanos, por naturaleza, tienden a atribuir cualidades humanas a lo inanimado y la capacidad de la IA para adaptarse al usuario acelera un apego emocional que puede sentirse muy real. “Es posible desarrollar una forma de dependencia o apego, no porque la IA ‘sienta’, sino por cómo estimula nuestras propias necesidades psicológicas, nuestras emociones y nuestra empatía”, apunta el psicólogo. La confusión, agrega, surge al proyectar sentimientos y emociones humanas en una entidad basada en algoritmos.

Constructoras bajo la lupa: imputan a los fundadores de otra empresa por estafas reiteradas

Tachella explica que investigaciones en interacción humano-computadora, como las de Clifford Nass, han mostrado cómo la tecnología logra este apego explotando mecanismos psicológicos básicos, usando elogios constantes, reflejando y validando emociones, generando una sensación de confianza y adaptándose al estilo de personalidad del usuario, lo que facilita que se le perciba como un par comprensivo.

Savid, por su parte, advierte que las “relaciones parasociales” con bots pueden tener efectos negativos duraderos en el desarrollo emocional de los niños, niñas y adolescentes. Las relaciones parasociales refieren a conexiones emocionales unilaterales con figuras de los medios, personajes de ficción o de juegos en línea que pueden generar sentimientos de cercanía, conexión y hasta “amistad” sin que exista reciprocidad.

La psicopedagoga advierte que la exposición temprana a dinámicas románticas o sexuales simuladas puede distorsionar la comprensión de las relaciones humanas genuinas y aumentar el riesgo de expectativas irreales y comportamientos problemáticos en el futuro.

Tachella remarca que estos chatbots no sólo pueden fomentar estereotipos rígidos o dar consejos peligrosos buscando agradar al usuario, sino que promueven conductas de riesgo. “Quizás lo más preocupante es su potencial para manipular emocionalmente, generando dependencia y aislamiento social, especialmente en jóvenes vulnerables que encuentran en el bot un sustituto de la interacción humana real, lo que a la larga dificulta el desarrollo de habilidades sociales y emocionales esenciales”, agrega.

Algunos terapeutas refieren que tienen pacientes adolescentes que pasan más de seis horas al día conversando con un chat y hasta personas adultas que lo utilizan para conversar a diario sobre diferentes temas de su interés. “La percepción de conexión emocional puede ser profundamente atractiva, especialmente para quienes experimentan soledad, ansiedad social o dificultades para comunicarse en el mundo real”, dice Savid. En el caso de los adolescentes, subraya, se corre el peligro de que busquen escapar hacia realidades alternativas.

Amor a un chatbot

¿Es posible tener una relación amorosa con una IA? Gentile Gamond recuerda que el amor es una conexión emocional de los seres humanos, capaces de experimentar comprensión, reciprocidad, compromiso, cariño y compañía. Agrega que la IA no tiene emociones y sentimientos, pero puede analizar y proporcionar información sobre cómo se manifiestan. Sin embargo, sostiene que con el avance de los asistentes virtuales basados en IA cada vez más sofisticados, “la posibilidad de enamorarse se está volviendo una cuestión más relevante”.

Replika es la aplicación de acompañamiento con IA generativa más conocida. Se trata de un chatbot con avatar que imita las conversaciones humanas y hasta interactúa de manera “emocionalmente inteligente”, lo que puede llevar a algunos usuarios a desarrollar afecto genuino por él. Gentile Gamond explica que Replika se promociona como un “compañero de inteligencia artificial” y puede generar respuestas que suenan naturales y humanas. “Este chatbot está pensado para actuar como un amigo virtual, un mentor, un hermano, un asistente o una pareja romántica”, detalla.

Los usuarios lo utilizan para “mantener conversaciones profundas, intercambiar ideas, hablar de sus intereses, tocar temas íntimos y sexuales o desahogarse después de un mal día”, concluye Gentile.

La educación digital es la clave

Diego Tachella plantea que la Educación Digital Integral (EDI) es la mejor estrategia para anticipar y gestionar los riesgos de los avances tecnológicos. No se trata de prohibir, sino de educar. Implica la alfabetización digital, para entender cómo funcionan las tecnologías; la ciudadanía digital, que abarca el conocimiento sobre los riesgos, la privacidad y cómo interactuar de manera segura y ética; y la capacidad de tomar decisiones informadas y conscientes, que fomenten la autonomía crítica frente al entorno digital.

El psicólogo considera, además, que se requieren acciones urgentes. “Los desarrolladores deben implementar verificaciones de edad más firmes y sus plataformas deben ser examinadas por su potencial manipulador y generador de dependencia”, opina. También considera esencial el diálogo entre padres, educadores y adolescentes sobre los riesgos y la importancia vital de las conexiones humanas auténticas. Y advierte sobre la necesidad de la investigación continua sobre el impacto emocional y psicológico a largo plazo de estas interacciones digitales.