Deepfakes en X: Cómo la inteligencia artificial moldea la percepción de la guerra
La proliferación de archivos manipulados en la plataforma de Elon Musk y otras redes sociales instaló una nueva fase de hostilidad digital donde el contenido generado por computadoras reemplazó a la evidencia fáctica de los combates.
El uso de inteligencia artificial para la creación de piezas visuales y sonoras falsas, conocidas como deepfakes, alcanzó niveles críticos en la plataforma X durante las últimas escaladas bélicas. Estos archivos simulan éxitos militares y bombardeos que nunca ocurrieron con el objetivo de manipular la opinión pública internacional de forma inmediata.
Un informe de la firma de ciberseguridad NewsGuard confirmó que las herramientas de IA generativa producen narrativas polarizantes que apelan directamente al miedo y la ansiedad de los usuarios. El estudio detectó que el 70% de los videos virales sobre supuestas derrotas enemigas en el Golfo contenían elementos de edición sintética o eran recreaciones de videojuegos presentadas como reales.
La herramienta de verificación Grok, integrada en la red social de Elon Musk, enfrentó cuestionamientos por validar información falsa extraída de publicaciones satíricas o hilos de propaganda. El chatbot confundió bromas de usuarios con noticias de última hora, generando resúmenes que daban por ciertos ataques ficticios en zonas civiles estratégicas.
Las agencias de inteligencia occidentales identificaron granjas de bots que utilizan Grok y otros modelos de lenguaje para "verificar" noticias falsas en tiempo real. Esta técnica de validación circular permite que un contenido sintético sea citado por una IA, dándole una pátina de legitimidad ante el ojo del usuario promedio.
¿Qué impacto tiene Grok en la veracidad de las noticias de guerra?
El chatbot de la red social X utiliza la base de datos de los posteos en tiempo real para elaborar sus informes, lo que facilita la filtración de datos erróneos. Al no contar con un filtro de edición humana, la herramienta tomó publicaciones de cuentas con verificación paga y las transformó en alertas de noticias globales.
La arquitectura de estos modelos de lenguaje prioriza la relevancia y el engagement por sobre la exactitud de los datos geográficos o temporales. En varios incidentes documentados, la IA describió explosiones en ciudades donde no se registraron movimientos militares, basándose únicamente en la frecuencia de palabras clave que circulaban en la red.
Los atacantes emplean la IA generativa para clonar voces de líderes políticos y mandos militares con el fin de emitir órdenes de rendición falsas. Estos audios circulan por canales de Telegram y grupos de WhatsApp antes de saltar a las plataformas masivas, donde los algoritmos de recomendación los impulsan.
¿Cómo operan las plataformas para frenar los deepfakes militares?
Las empresas tecnológicas como Meta y Google implementaron marcas de agua digitales, pero los creadores de contenido malicioso encuentran métodos para eliminarlas o distorsionarlas. El uso de redes neuronales para detectar deepfakes demostró ser insuficiente ante el avance de los algoritmos de creación, que aprenden a evadir los patrones de detección.
Entrenamiento extremo para Artemis II: los simuladores que engañan el cuerpo de los astronautas
Las regulaciones internacionales todavía no logran contener la exportación de estas tecnologías hacia grupos paramilitares o servicios de inteligencia extranjeros. La falta de un marco legal global permite que los desarrolladores de IA operen en zonas grises mientras sus productos se utilizan para instigar conflictos étnicos y religiosos mediante mentiras visuales.
La monetización de estos contenidos a través de los sistemas de reparto de ingresos de las plataformas incentivó a usuarios individuales a publicar falsedades. La búsqueda de clics y visualizaciones lleva a cuentas con millones de seguidores a compartir deepfakes de combates aéreos sin realizar una mínima comprobación de origen.
El Centro de Análisis de Amenazas de Microsoft detectó operaciones coordinadas que vinculan la creación de imágenes por IA con campañas de desprestigio contra organismos internacionales. Estas imágenes muestran a trabajadores humanitarios en situaciones comprometidas o falsifican documentos de Naciones Unidas para justificar ataques contra infraestructura civil.