Guerra narrativa

IA, fake y política: Miente miente que nada quedará

Las operaciones digitales ya no buscan instalar un relato, sino destruir la posibilidad misma de que haya uno verdadero. Ese es el corazón estratégico del ataques sintético moderno: no fabricar una mentira perfecta, sino una realidad inchequeable.

Imagen ilustrativa Foto: CEDOC

Se le atribuye al estratega de la comunicación nazi, Joseph Gooebels la frase “miente miente que algo quedará” y paradójicamente es mentira, él nunca dijo eso textualmente. Dijo algo más contundente: “Una mentira repetida mil veces se convierte en verdad”. El modelo de propaganda nazi funcionaba bajo el efecto machaque. Un enunciado se repite y se repite hasta que se toma por cierto. En la actualidad, la nueva derecha tiene una forma de propaganda mucho más compleja, pero igual de eficaz.

Por tomar solo un ejemplo, hace algunos días, el cuatro de noviembre, diferentes cuentas de X asociadas al Gobierno difundieron un clip del gobernador bonaerense Axel Kicillof en la que dijo: “Para el peronista promedio queda claro que el presidente del PJ no puede ser alguien condenado por la justicia y que esté esperando más causas que seguramente agraven su pena. En la Provincia de Buenos Aires mantuvimos los votos y a nivel nacional la derrota es toda de Cristina”.

Como era de esperarse, el fragmento es un fake hecho con inteligencia artificial. Sin embargo, es interesante que varios de los usuarios que lo vieron le preguntaron a Grok, la IA de X, si el video era real.

“Es real. El video muestra a Axel Kicillof en una entrevista criticando que el presidente del PJ no puede ser alguien bajo condena domiciliaria, refiriéndose implícitamente a Cristina Kirchner, y que el peronismo promedio no se identifica con un líder condenado esperando más penas. Coincide con las tensiones internas del peronismo post-derrota electoral, sin evidencia de manipulación IA”, contestó Grok y en otra respuesta a otro usuario planteó: “Sí, el audio es auténtico. En el clip de la entrevista televisiva, Axel Kicillof afirma explícitamente: "En la provincia nosotros mantuvimos los votos pero en Nación la derrota es toda de Cristina". Esto refleja las crecientes tensiones internas en el kirchnerismo tras la derrota electoral, con Kicillof respondiendo a críticas de Cristina Kirchner”.

El problema ya no solo es que proliferen fakes con declaraciones falsas, sino que este contenido falso termina por engañar a las propias IA. Esto vuelve una tarea difícil el distinguir lo verdadero de lo falso para cada vez más personas que no conocen lo que efectivamente un político diría dado su historia, contexto y estilo verbal.

El gasto millonario de The New York Times en el juicio contra OpenAI y Microsoft que redefine el entrenamiento de la IA

En lo personal, estoy seguro que Kicillof no dijo eso, no necesito preguntarle a ninguna IA. Probablemente porque lo he escuchado innumerables veces hablar, trabajo en el periodismo político y puedo predecir lo que diría. Naturalmente no son características propias de la mayoría de la sociedad.

Además, de este caso y el de Macri anunciando que Lospenatto se bajaría de su candidatura de legisladora porteña en las últimas elecciones locales en CABA, hay otros ejemplos fakes que tuvieron alto impacto internacional.

El caso paradigmático fue el de Volodímir Zelenski en 2022. A días de la invasión rusa, apareció un video deepfake en el que el presidente ucraniano pedía a su ejército rendirse. El material fue transmitido incluso en un canal de TV hackeado y se viralizó antes de ser desmentido por el propio Zelenski en un video real grabado con su celular. El objetivo no era solo engañar, era sembrar caos epistemológico: la guerra entraba en la era donde ya no hay imagen confiable.

En 2018, Barack Obama protagonizó el primer deepfake mundialmente viral. Lo “decía” insultos contra Trump en un video creado por Jordan Peele para BuzzFeed. No era una operación política, era una advertencia pública: si el mundo creyó por un segundo que Obama podía decir cualquier cosa, entonces la herramienta estaba lista para dinamitar la frontera entre verdad y reconstrucción artificial.

En 2023, circuló un audio deepfake del líder laborista británico Keir Starmer, donde insultaba a su propio equipo. Millones lo escucharon antes de la aclaración oficial. No importaba si lo creían o no: lo que quedaba era la duda. Ese es el corazón estratégico del ataques sintético moderno: no fabricar una mentira perfecta, sino una realidad inchequeable.

Qué es la "parálisis paradigmática" ante las nuevas tecnologías y por qué debemos evitarla

Estos episodios muestran el punto que investigadores como Renée DiResta, Joan Donovan y Andrea Colamedici vienen señalando: la desinformación sintética ya no busca producir credulidad, sino cinismo. El éxito del deepfake no es la mentira creída, es la verdad impotente. Cuando todo puede ser falso, también todo puede ser verdadero. Y allí, en ese derrumbe del piso común de realidad, la política deja de ser debate para convertirse en sugestión.

La política entró en la era del trance. No lo dice un gurú digital, sino la realidad: la disputa ya no se da por la verdad, sino por la atención. Andrea Colamedici llama a esto hipnocracia: un sistema donde el poder no convence, induce. No argumenta, estimula. No gobierna con datos, gobierna con dopamina. En su lectura, la sociedad contemporánea no está sometida por la fuerza, sino por una forma difusa de hipnosis social que opera a través de pantallas, emociones y un estado de sobresaturación permanente. En ese terreno, las definiciones políticas dejan de ser racionales para volverse reflejas. La pregunta ya no es “¿qué es cierto?”, sino “¿qué me hizo sentir algo primero?”.

Esta dinámica se potencia con lo que Byung-Chul Han define como infocracia: el imperio del dato que no produce verdad, sino ruido. Lejos de iluminar, enceguece. El problema ya no es la censura, es el exceso. Y en el exceso, la verdad se disuelve como un hielo en un vaso caliente. La inteligencia artificial hizo el resto: los deepfakes no son armas de persuasión, son armas de desorientación. No buscan que el público crea una mentira específica, sino que deje de creer que la verdad sea un lugar al que valga la pena volver. Ya no hace falta instalar un relato, alcanza con dinamitar el piso donde todos los relatos se disputan.

“Inundar la zona de mierda”

Steve Bannon, ex-estratega de Donald Trump, popularizó una fórmula brutal para describir la política en la era digital: “flood the zone with shit” -inundar la zona de mierda-, citada por el periodista Jonathan Karl en Front Row at the Trump Show (2020). No es una frase de escenario, es una doctrina de guerra narrativa. La idea no es imponer una mentira precisa, sino ahogar el debate en versiones, ataques, contradicciones y ruido para que la verdad deje de funcionar como árbitro compartido. Si todo puede ser falso, entonces nada es desmentible; si nada es verificable, la discusión deja de ser racional y se vuelve identitaria, emocional, tribal. Bannon lo complementó al decir que “la oposición son los medios” y que “la política está río abajo de la cultura”: antes de ganar elecciones, hay que romper el terreno simbólico que sostiene los consensos.

Esta táctica no es exclusiva, sino matriz de la nueva derecha global. Donald Trump la aplica con su torrentera de acusaciones y giros; Bolsonaro desbordó WhatsApp con realidades paralelas; Nigel Farage hizo del Brexit una promesa emocional desanclada de datos; Orbán erosionó a la prensa como mediadora; Vox y Milei dinamitan la confianza en instituciones más que construir verdad propia. El rasgo común no es convencer, es saturar y deslegitimar. Su objetivo no es que la gente crea una versión, sino que descrea de todas.

Inteligencia Artificial: anulan sentencia porque un juez usó un ChatGPT y una frase lo delató

“Inundar la zona” supone instalar el caos como sentido común: que el periodismo, la ciencia o la justicia valgan lo mismo que un meme; que la política deje de ser debate para ser sugestión; que el poder ya no dependa de la evidencia sino de la intensidad. No es propaganda: es entropía como estrategia. En ese barro, ya no gana quien tiene razón, sino quien grita más fuerte.

Fernando Cerimedo, el cerebro digital detrás del triunfo de Milei en 2023 y dueño de la Derecha Diario, medio de extrema derecha tiene una lógica idéntica a Bannon. Probablemente, esto tenga que ver con que Cerimedo, máximo aportante en blanco a la campaña presidencial de Milei, quiera ser el “Bannon latinoaméricano”.  “No importa si es verdad o mentira, lo importante es que se hable de un contenido”, manifestó.

Cerimedo, además de haber sido el estratega de la campaña de Milei, también formó parte del equipo de comunicación digital de Bolsonaro en Brasil. De hecho, la justicia brasileña lo investiga por ser una de las personas encargadas de llevar adelante la estrategia comunicacional del intento del golpe de Estado en Brasil, causa que tiene detenido a Jair Bolsonaro.

En Argentina, una de sus operaciones más graves y olvidadas fue una campaña a través de su portal en la que intentaba sembrar dudas sobre la veracidad del atentado a Cristina Kirchner mediante la hipótesis de que C5N ya había anunciado la noticia cinco horas de que suceda. Esto lo hizo mediante un simple fake de imagen.

Joseph Goebbels decía “miente miente que algo quedará” y lo que buscaba era que la mentira lentamente vaya reemplazando a la verdad. La extrema derecha actual tiene pretensiones más nihilistas. Su propaganda se podría sintetizar en “miente, miente que ya la verdad o la mentira existirán”.