Sebastián Di Doménica: “Tenemos que volver a dudar de todo lo que vemos en Internet”
El especialista en inteligencia artificial advirtió sobre el crecimiento de los deepfakes y recomendó desconfiar de los videos virales, especialmente en contextos electorales.
En diálogo con Canal E, Sebastián Di Doménica, especialista en inteligencia artificial, analizó cómo detectar videos falsos generados por IA y la necesidad de recuperar el pensamiento crítico en la era digital.
“La gente tiene que desconfiar siempre de lo que ve”, afirmó Di Doménica al explicar cómo la inteligencia artificial ha perfeccionado los motores que producen deepfakes, videos falsos donde una persona puede decir algo que nunca dijo.
Según detalló, herramientas como Zora o Veo (de Google) logran resultados cada vez más realistas, lo que exige un mayor nivel de precaución. “Siempre hay que ser muy desconfiado, hay que volver a la duda”, subrayó.
El especialista explicó que los deepfakes no son simples bromas digitales, sino estrategias diseñadas para confundir o manipular la opinión pública. “Estos videos falsos están pensados para engañar y distraer. Son lanzados estratégicamente para generar confusión”, advirtió.
En tiempos donde domina la llamada “tiktokización de la información”, señaló que el consumo fragmentado de contenido facilita la desinformación, ya que muchos usuarios solo ven partes editadas de videos más largos o los reciben por redes y mensajería sin poder verificarlos.
Cómo detectar un video falso y qué hacer ante la duda
Di Doménica remarcó la importancia de chequear la fuente original y acudir a medios confiables cuando algo parece sospechoso. “Si algo genera dudas, hay que ir a buscar las fuentes. Los medios de comunicación serios van a publicar y chequear la información”, destacó.
El especialista advirtió especialmente sobre el uso de videos apócrifos en períodos electorales: “En tiempo de elecciones aparecen supuestos videos de referentes políticos que dicen cosas que nunca dijeron”, alertó.
Por eso, recomendó verificar siempre los perfiles oficiales de las figuras públicas antes de compartir o creer en cualquier contenido viral.
Asimismo, señaló un nuevo riesgo: el hábito de informarse directamente a través de motores de inteligencia artificial. “Muchas veces estos modelos recolectan información de fuentes no confiables y nos entregan un resumen mezclado”, explicó, instando a los usuarios a preguntarse de dónde proviene realmente la información.
Las diferencias entre los motores de inteligencia artificial
Consultado sobre la precisión de las distintas herramientas, Di Doménica reconoció que algunas son más confiables que otras. “Cada motor depende de la cantidad de fuentes y del nivel de entrenamiento que tiene”, afirmó.
Ejemplificó con el caso de ChatGPT: “La última versión tiene menos alucinaciones porque cuenta con más fuentes y mayor masa de entrenamiento”, comentó.
No obstante, advirtió que incluso los motores más avanzados pueden reproducir datos erróneos si las fuentes no son verificadas. “Vamos a un mundo donde habrá cosas que parecen reales pero no lo son. Por eso hay que ser críticos, desconfiar y volver a las fuentes”, concluyó.
También te puede interesar
-
Carlos Etchepare: “Estamos frente a un récord productivo, pero con beneficios muy escasos"
-
Ezequiel Vega: “Tuvimos un año bastante positivo, sobre todo para las bolsas norteamericanas”
-
Camilo Alan: “Nunca vi un diciembre tan malo y tan triste”
-
José María Saráchaga: “No podés gritar los goles, antes de que entre la pelota”
-
Andrés Costamagna: “En 2026 vamos a tener precios altos casi todo el año”
-
Henrik Rehbinder: “La popularidad de Trump en el manejo de la economía es de 36%”
-
Juan Manuel Truffa: “Los bonos subieron y el correlato directo fue la baja del riesgo país”
-
Fernanda Laiún: “No es la gran reforma tributaria que se estaba esperando”
-
La baja del impuesto de sellos busca reactivar el mercado inmobiliario porteño desde 2026
-
Anibal Urios: “El Congreso es más un show que un lugar de trabajo”