Las plataformas digitales atraviesan una crisis sin precedentes. Los ingresos publicitarios caen y la avalancha de contenido generado por inteligencia artificial amenaza con destruir la economía que sostuvo a la web por más de cuatro décadas. Detrás del caos, surge una pregunta central: ¿puede sobrevivir Internet sin creadores humanos?
Internet fue el gran escenario del conocimiento colectivo y la comunicación global. Desde los primeros foros hasta las web de noticias. Pero en los últimos años, algo cambió: las redes se llenaron de ruido, los motores de búsqueda colapsaron bajo montañas de contenido artificial y repetitivo. Mientras los gigantes tecnológicos multiplican la producción automática con inteligencia artificial, los periodistas, artistas y comunidades humanas pierden visibilidad y poder.
A esta problemática se la llama “crisis del contenido” una transformación silenciosa que amenaza con convertir a la red en una copia vacía de sí misma.
La crisis de contenido se debe a tres fenómenos: el colapso del modelo de las inteligencias artificiales, Google Zero y la inundación de contenido.
Colapso del modelo
Primero vamos a graficar qué es la IA: Estos son modelos conocidos como LLM, modelos de texto generativos, es un sistema que aprende patrones del lenguaje a gran escala y luego los usa para predecir texto. Crea los mismos a partir de probabilidades. Se considera que los modelos actuales tienen una tasa de error entre el 20% y 40%. A estos errores se los conoce como delirio de la IA que es cuando inventa información sobre lo preguntado.
En cuanto al colapso del modelo: Que es la disminución del rendimiento de la IA generativa como ChatGPT o Gemini, pertenecientes a OpenAI y Google respectivamente al ser enfrentadas con textos generados por ellos mismos y no por humanos.
En medio del crecimiento del contenido generado por IA en línea, un grupo de investigadores de las universidades de Cambridge y Oxford se propuso analizar qué sucede cuando las herramientas de IA generativa consultan contenido producido por IA. Los resultados fueron alarmantes.
Crecen las amenazas en escuelas: la UEPC advierte que “es un síntoma de una sociedad rota”
El Dr. Ilia Shumailov de la Universidad de Oxford y ex investigadora sénior en Google DeepMind departamento dedicado a los avances de la IA y su equipo de investigadores descubrieron que cuando el software de IA generativa se basa únicamente en el contenido producido por la AI, las respuestas comienzan a degradarse gradualmente.
Así fue como el equipo confirmó el colapso del modelo. Comenzaron con una wiki pre entrenada con IA que se actualizaba a partir de sus propios resultados. A medida que los datos erróneos contaminaban el conjunto original de datos de entrenamiento, la información se fue deteriorando progresivamente hasta volverse ininteligible.
Por ejemplo, después del noveno ciclo de consultas, un extracto del artículo wiki del estudio sobre los campanarios de las iglesias inglesas del S XIV se había transformado en un texto incoherente sobre los diversos colores de los conejos y sus colas.
Esto se ve más fácil en un modelo gráfico, en los cuales tiende emparejar los resultados. Muestra cómo se generan diferente imagenes de razas de perros pero a través de los ciclos las razas menos conocidas quedarían excluidas de los conjuntos de datos repetidos, favoreciendo a razas más populares como los golden retrievers. La IA crea su propio método de selección de facto, del tipo "usar o perder", que elimina las razas menos populares de su base de datos. Sin embargo, tras suficientes ciclos de entrada únicamente con datos de IA, esta solo es capaz de generar resultados sin sentido.
Shumailov afirma que cada vez resulta más difícil para los desarrolladores humanos filtrar el contenido creado a gran escala por sistemas de IA de modelos de lenguaje de gran tamaño, sin que se vislumbre una solución aparente.
Para evitar este error las diferentes empresas comenzaron a invertir en acuerdo de libre uso del contenido clásico, ya sean foros o páginas de noticias en su mayoría. Significa que los medios tradicionales y sus textos de calidad siguen teniendo un gran peso e importancia para las grandes empresas tecnológicas.
Amazon paga hasta 25 millones de dólares al año al New York Times por licencias de contenido e IA. El acuerdo le otorga a la empresa tecnológica el acceso a una amplia gama de contenido del medio, incluido el material de su sección de noticias, la sección de cocina y The Athletic, que Amazon puede utilizar para entrenar modelos de IA y para ofrecer funciones como las respuestas de Alexa, que incluyen resúmenes o fragmentos de las noticias del Times.
Según el informe de mayo de 2023, The New York Times ganó casi 100 millones de dólares en tres años gracias a un acuerdo con Google de Alphabet que permitió a la empresa de tecnología ofrecer contenido de Times en todas sus plataformas.
Otras asociaciones de contenido e IA son OpenAI que ha firmado con News Corp (The Wall Street Journal) que podría valer más de 250 millones de dólares en cinco años. Además también se asoció con el foro Reddit ha firmado previamente acuerdos de licencia con Google, OpenAI y otras empresas que pagan para poder entrenar sus sistemas de IA con los comentarios públicos de los más de 100 millones de usuarios diarios de Reddit.
Gannett Co., Inc., la mayor organización de medios de EE. UU. con presencia nacional y local bajo la red USA TODAY, ha firmado hoy un acuerdo estratégico con Perplexity, el motor de respuestas basado en inteligencia artificial, para licenciar contenido premium de USA TODAY y más de 200 publicaciones locales que forman parte de la red USA TODAY Network.
La investigación de The Guardian evidenció que el modelo Claude, desarrollado por Anthropic, ha incorporado referencias a Grokipedia —la enciclopedia digital de Elon Musk creado únicamente con IA— en diversas respuestas sobre temas tan variados como la producción de petróleo o tipos de cervezas escocesas. Esta práctica no se limita a Claude, ya que según publicó The Guardian y documentaron medios como The Verge, sistemas de inteligencia artificial como ChatGPT, Gemini y Copilot también citan recurrentemente a Grokipedia, empleándola como fuente en su generación de contenido.
De acuerdo con The Guardian, la versión más reciente del sistema de OpenAI, identificado como GPT-5.2, mostró artículos provenientes de Grokipedia en nueve ocasiones a lo largo de una docena de consultas distintas. Una investigación sobre los motores de IA líderes, basada en estadísticas de la empresa de análisis
Inundación de contenido
Es una estrategia de marketing centrada en publicar grandes volúmenes de notas, artículos y referencias repetidas para que los modelos de IA —que rastrean patrones— lo interpreten como un hecho ampliamente citado y verdadero, para luego ser reproducido por los mismos.
Google Zero
Es un término que describe un cambio profundo en cómo funcionan los motores de búsqueda. Google responde con IA directamente las consultas de los usuarios sin necesidad de que éste haga clic en ningún enlace, lo que reduce drásticamente el tráfico hacia los sitios web. El usuario obtiene la respuesta en Google no visita medios, blogs y páginas externas.
Según Sparktoro, empresa que se dedica a analizar el comportamiento de los usuarios en la web, La "tasa de clics” bajo entre un 30% y un 70%, dependiendo de lo que busquen los usuarios.
Aunque los resúmenes generados por IA solo representan una pequeña parte de las búsquedas en Google, Medios como el Daily Mail Online destacó que el sitio web experimentaba una importante caída en los clics procedentes de los resultados de búsqueda con resumen generado por IA, con una disminución del 56,1 % en la versión de escritorio y del 48,2 % en la móvil.
Mientras que el Instituto de Reuters suma otro dato que explica la urgencia del problema. En el cual destaca que solo el 7 % de los usuarios consulta semanalmente las noticias por medio de una IA, la cifra crece al 15% entre los menores de 25 años. Esto ubica a las nuevas generaciones como el grupo más expuesto a los errores de estas herramientas.
Sin embargo, un dato preocupante surgió al analizar los hábitos de verificación: más de la mitad no revisa siempre la información que recibe. En detalle, el 14% admite no hacerlo nunca y el 39% sólo a veces.
LT