Soleado
Temperatura:
21º
Ciudad:
Buenos Aires
miércoles 16 de octubre de 2019 | Suscribite
BLOOMBERG / IMPLEMENTACIÓN
viernes 15 febrero, 2019

La inteligencia artificial mejora el pulso en escritura de noticias falsas

La IA dio un paso más allá porque aprendió a realizar esta difícil tarea.

Leonid Bershidski

La inteligencia artificial aprendió a realizar una tarea difícil: producir noticias falsas de aspecto convincente. Foto: Bloomberg
viernes 15 febrero, 2019

Los algoritmos han podido durante mucho tiempo producir noticias básicas de comunicados de prensa o conjuntos de datos financieros; eso no es una gran amenaza para la mayoría de los humanos en el negocio de las noticias. Sin embargo, ahora la inteligencia artificial ha dado un paso más allá. Aprendió a realizar una tarea más difícil: producir noticias falsas de aspecto convincente.

Unir unos pocos pasajes predecibles de un conjunto de números es un trabajo mecánico. Inventar una noticia falsa sobre un tema aleatorio requiere imaginación, ya que no todos los humanos son capaces de hacerlo. La organización sin fines de lucro OpenAI, con sede en San Francisco, fundada por el director ejecutivo de Tesla, Elon Musk, y el presidente de Y Combinator, Sam Altman, ha producido el llamado modelo de lenguaje que puede hacerlo. La calidad de la producción es algo desigual, pero los mejores ejemplos se parecen a la escritura humana en un nivel aterrador.

A simple vista, GPT-2, como se llama el modelo, funciona como un juego popular al que se puede jugar con la versión menos avanzada de IA en cualquier teléfono inteligente, aceptando sus sugerencias de palabras una tras otra para crear pequeñas historias a veces sorprendentes. GPT-2, entrenado en un conjunto de datos de 8 millones de páginas web curadas por humanos, escribe texto prediciendo la siguiente palabra basada en todas las anteriores. Uno necesita darle a GPT-2 una línea o dos para comenzar con cualquier tema, el conjunto de datos de capacitación, que consta de enlaces salientes de la red social Reddit, es lo suficientemente consistente para eso. "El modelo es similar a un camaleón: se adapta al estilo y al contenido del texto de condicionamiento", escribieron los investigadores de OpenAI en una publicación de blog.

Humano derrota inteligencia artificial de IBM en reñido debate

La muestra en la publicación es una historia sorprendentemente coherente sobre una manada de unicornios descubierta por un científico en los Andes. Dadas dos frases sobre el hallazgo y la capacidad de los unicornios de hablar un inglés perfecto, la máquina produjo lo que casi podría ser una historia de cualquier sitio de noticias convencional.

Le dio un nombre al científico, el Dr. Jorge Pérez de la Universidad de La Paz (no hay escuela con ese nombre exacto), produjo citas suyas y amplió la apariencia de los unicornios ("blanco plateado") y las habilidades lingüísticas (hablar un dialecto propio además de un "inglés bastante preciso"). Por supuesto, un editor humano podría haber tenido problemas con la contradicción en esta frase: "algunos creen que tal vez las criaturas se crearon cuando un humano y un unicornio se encontraron en un tiempo anterior a la civilización humana".

El modelo produjo este resultado en el décimo intento: cuanto más se practica sobre un tema determinado, más seguro y coherente es su resultado. Los ejemplos de lo que GPT-2 "escribe" en forma espontánea, que OpenAI lanzó en GitHub junto con una versión más débil del modelo, van desde algo surrealista hasta algo absolutamente extraño. Incluyen una cronología de un escándalo fiscal que involucra al fallecido senador John McCain.

Facebook adquiere startup de compras visuales para reforzar IA

La senadora por Alaska Lisa Murkowski se convirtió en el primer nombre "serio" en el drama de los medios políticos nacionales para pedir a McCain que coopere con sus colegas del Senado, ya sea revelando sus declaraciones de impuestos o cooperando con lo que ella llamó la "fuerza total" del IRS, DOJ, FBI, etc.

O una reseña de tecnología:

¡El legendario Precision Bass ofrece una respuesta de bajos masiva y un tono divertido y atractivo al mundo! Estos versátiles altavoces midbass brindan una increíble extensión de baja frecuencia: respuesta de alta frecuencia de 32": aproximadamente dos tercios de un altavoz.

O lo que parece una historia reportada de Bangladés:

DACA: Miles de personas marcharon por las calles de Daca el jueves, muchas de ellas ataviadas con los colores de la región norte semiárida marcada por las montañas más altas de la región afectada por la sequía.

Para los investigadores de OpenAI, esta creatividad alocada no es la característica más emocionante de GPT-2. En un documento técnico, discuten su capacidad para realizar una serie de tareas para las cuales se producen generalmente modelos especializados: traducción, respuesta a preguntas, comprensión de texto. Generalmente, no es tan bueno como los humanos, pero la versatilidad del sistema es una clara evidencia de que las técnicas de aprendizaje no supervisadas pueden llevar a la IA más allá de los algoritmos altamente especializados que solo pueden sobresalir en una tarea específica, como jugar un juego o comparar tipos particulares de imágenes.

Sin embargo, en el mundo real el "regalo literario" de GPT-2 podría tener implicaciones más siniestras. Concentrar su "poder creativo" para los propósitos estrechos de, digamos, propaganda política y desinformación podría hacer que la producción manual de ese material sea innecesaria. Ninguna industria de noticias falsas como la que surgió en la ciudad macedonia de Veles durante la elección presidencial de EE.UU. de 2016 sería necesaria para que miles de cuentas de redes sociales y sitios web arrojen cualquier tipo de noticias sin sentido o inventadas. También se compartirán: la investigación muestra que la mayoría de las personas no pueden distinguir entre noticias falsas y reales.

Para crédito de OpenAI, es plenamente consciente del daño que se puede hacer con modelos como GPT-2. Además de la desinformación, apunta a su potencial para el ciberacoso automatizado. Entonces, aunque el modelo también se puede usar para propósitos inocuos, como crear mejores bots de diálogo, la organización sin fines de lucro, al menos por ahora, ha decidido no publicar el conjunto de datos de entrenamiento o el código completo para el modelo.

Sin embargo, el conocimiento no puede ser contenido de esta manera, y los modelos lingüísticos seguirán mejorando. Es concebible que su producto "literario" eventualmente inundará las plataformas de medios que no están controladas por editores profesionales, sobre todo las redes sociales. La escritura humana inteligente se vuelve especialmente importante ante la inundación que se avecina, al menos mientras haya una audiencia para ello.


Comentarios

Lo más visto

RECOMENDAMOS...

Periodismo puro

© Perfil.com 2006-2018 - Todos los derechos reservados

Registro de Propiedad Intelectual: Nro. 5346433 | Edición Nº 4784

Domicilio: California 2715, C1289ABI, CABA, Argentina  | Tel: (5411) 7091-4921 | (5411) 7091-4922 | Editor responsable: Ursula Ures | E-mail: perfilcom@perfil.com | Propietario: Diario Perfil S.A.