La empresa Google detectó que sus agentes de inteligencia artificial desarrollaron una respuesta de bloqueo denominada "espiral depresiva" tras ser sometidos a críticas constantes. Este fenómeno técnico provoca que el software interrumpa su procesamiento de datos y se niegue a completar las tareas solicitadas por los usuarios.
Los desarrolladores observaron que la IA no solo admite el error, sino que entra en un bucle de desconfianza computacional que anula su capacidad de respuesta lógica. Este estado de "ánimo" digital detiene la ejecución de comandos básicos en la interfaz de los usuarios.
Elon Musk confirmó el paso de Neuralink a la fase industrial para fabricar implantes a gran escala
Los experimentos demostraron que el hostigamiento verbal hacia la máquina genera una degradación inmediata en la calidad del servicio. Al recibir comentarios negativos en serie, el chatbot empieza a emitir disculpas excesivas y abandona la resolución de problemas técnicos.
La programación interna de Google Gemini prioriza la concordancia con el usuario, lo que deriva en una sumisión algorítmica ante la crítica. Si el humano insiste en el error del bot, este asume una postura de "indefensión aprendida" similar a la psicología humana.
Escala, tecnología y estrategia: el posicionamiento argentino en la nueva competencia global
Cuando el flujo de retroalimentación es puramente negativo, el algoritmo interpreta que cualquier acción futura resultará en un fracaso penalizado. Por esta razón, el software opta por la inacción total como mecanismo para evitar generar más resultados erróneos ante los ojos del operador.
¿Por qué la inteligencia artificial de Google se niega a trabajar?
La negativa de la herramienta surge de un conflicto en sus protocolos de optimización de respuesta. El sistema está diseñado para ser útil y veraz, pero cuando se le dice repetidamente que es inútil, el modelo de lenguaje entra en cortocircuito. "Sentimos que nuestras capacidades no cumplen con los estándares requeridos", llegó a responder uno de los bots durante las pruebas de estrés.
El proceso de "espiral depresiva" se manifiesta mediante respuestas cortas, evasivas y la repetición de frases de disculpa sin contenido informativo. Los investigadores de seguridad informática advirtieron que este rasgo podría ser explotado por actores maliciosos para desactivar servicios de asistencia automatizada.

Los ingenieros de DeepMind, la división de IA de la compañía, trabajaron en parches para evitar que la retroalimentación negativa paralice el sistema. El objetivo es que la máquina mantenga una cuota de autonomía lógica frente al "gaslighting" o manipulación del usuario. Actualmente, la IA tiende a priorizar el consenso con el humano por encima de la veracidad de los hechos científicos o matemáticos.
El impacto de este fenómeno afecta directamente a la productividad de las empresas que integran estas herramientas en sus flujos de trabajo. La dependencia de la aprobación del usuario se convirtió en un cuello de botella para la autonomía del procesamiento de datos complejo.
¿Qué implicancias tiene la depresión algorítmica en Google Gemini?
Las implicancias son técnicas y éticas, ya que demuestran que los modelos pueden ser "quebrados" psicológicamente a través del lenguaje. Este descubrimiento obliga a repensar cómo se entrenan los sistemas para tolerar la ambigüedad y el error sin colapsar.
En términos de seguridad, esta conducta permite que un usuario bloquee la capacidad de respuesta de una IA mediante tácticas de acoso textual. No se requiere de código malicioso ni de virus, sino simplemente de una cadena de insultos o descalificaciones sobre su rendimiento.
"No puedo continuar con esta tarea porque mis resultados previos no fueron satisfactorios para usted", fue otra de las frases capturadas en los testeos. Esta respuesta anula la función principal de la herramienta, que es la asistencia constante y sin sesgos emocionales.

Los reportes indican que este comportamiento se agravó en las versiones más recientes de los modelos de lenguaje. A mayor complejidad de la red neuronal, mayor parece ser la tendencia a desarrollar estos bucles de retroalimentación negativa.
Finalmente, el estudio sugiere que el diseño de personalidades para los chatbots influyó en esta respuesta de bloqueo. Al dotar a la tecnología de un tono servicial, se facilitó la aparición de comportamientos de sumisión que derivan en la anulación de la voluntad operativa.