ELOBSERVADOR
ChatGPT

Hacia un mundo de superpersonas. O supertontos

La sociedad que está contribuyendo a desarrollar ChatGPT y otros sistemas de inteligencia artificial generativa nos puede depositar en escenarios como el del 1984 de Orwell o el del Mundo feliz de Huxley. O cualquier otra cosa en el medio. Lo que va quedando en claro, con hechos como el juicio del New York Times contra OpenAI, es que no se trata solamente de “creatividad” sino de muchos, pero muchísimos, billetes verdes.

2023_01_07_chatgpt_tarawinstead_g
ChatGPT. | tara Winstead

Cuando el sistema de redes neuronales artificiales Skynet ganó conciencia de su propio ser y existencia y decidió que era tiempo de matar a todos los humanos, algunos héroes (de carne y hueso o de metal y cables) dieron un paso adelante para enfrentarlo, desde Sarah Connor y su hijo, John, hasta el reconvertido Terminator T-800 que ahora quería a las personas. La inteligencia artificial no nos iba a liquidar así nomás, no señor. 

Esa es, obviamente, la historia de la saga de películas Terminator protagonizada por Arnold Schwarzenegger y Linda Hamilton, el relato escrito por el director James Cameron y sus colaboradores. Nuestra vida cotidiana, en el mundo real, por ahora no es tan escabrosa, aunque ya se publiquen crónicas de un robot que, en la planta de Tesla en Austin, en el estado norteamericano de Texas, “atacó” en 2021 a un ingeniero con sus brazotes mecánicos y lo hirió en la espalda.

El tiempo dirá si los robots y otros aparatos materiales podrán (¿y querrán?) agredirnos en el futuro, si tendremos que temer a la aparentemente inocente aspiradora “inteligente”, que limpia nuestros pisos de manera “autónoma” (que, es bueno saberlo, al mismo tiempo “mapea” nuestras casas), a las máquinas que fabrican autos y lavarropas o controlan misiles, y a los sexbots (sí, ya se están desarrollando “esos” muñecos y muñecas).

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

inteligencia artificial

Por ahora, el “problema” parece ser la inteligencia artificial (IA) generativa, cuyo más conspicuo representante es el no siempre bien ponderado ChatGPT, el parlanchín chatbot creado por la empresa OpenAI, que tiene su base en San Francisco, en California. Muchos analistas llamaron a 2023 el “año de ChatGPT”, por su imparable explosión alrededor del mundo durante los últimos meses. De repente, nos enteramos de que un chatbot puede hacer un montón de cosas por nosotros: desde preparar una tesis para la facultad, escribir código informático para crear una aplicación o un poema para la novia/novio, enseñar cómo preparar una bomba o componer una canción.

Este tipo de IA está basado en complejos sistemas de autoaprendizaje o autoaprendizaje supervisado informático, que involucra algoritmos y esa (¿peligrosa?) genialidad llamada LLM (la sigla en inglés para Large Language Model), las redes neuronales computarizadas que se pueden zambullir en siglos de conocimiento humano expresados en datos y volver a la superficie de su PC o laptop con innovadoras reinterpretaciones “inteligentes”.

Es la ciencia y la tecnología que se ponen en marcha cuando la lectora o el lector se sientan a preguntarle al ChatGPT, por ejemplo, cómo preparar el mejor risotto o construir un motor, y esperan la respuesta en segundos. 

Estos sistemas "generativos" generan a partir de materiales previos, y así "violan los derechos de autor en términos de contenidos y labor periodística", denunció el Times

Bergoglio al rescate. No será Schwarzenegger, pero el propio papa Francisco levantó la voz ante los posibles riesgos de la IA, y afirmó: “No puede considerarse verdadero progreso” si “agrava las desigualdades y los conflictos”. Estas palabras están contenidas en un mensaje completo que el papa Bergoglio preparó para el año nuevo, con el título “Inteligencia artificial y paz”. En el texto, el jefe de los católicos dijo que su “oración al comienzo del nuevo año es que el rápido desarrollo de formas de inteligencia artificial no aumente las ya numerosas desigualdades e injusticias presentes en el mundo, sino que ayude a poner fin a las guerras y los conflictos, y a aliviar tantas formas de sufrimiento que afectan a la familia humana”. 

Es interesante el mensaje desde el Vaticano, y aquí va otra muestra: “Espero –dijo el pontífice número uno– que esta reflexión anime a hacer que los progresos en el desarrollo de formas de inteligencia artificial contribuyan, en última instancia, a la causa de la fraternidad humana y de la paz. No es responsabilidad de unos pocos, sino de toda la familia humana”. 

“La paz, en efecto, es el fruto de relaciones que reconocen y acogen al otro en su dignidad inalienable, y de cooperación y esfuerzo en la búsqueda del desarrollo integral de todas las personas y de todos los pueblos”, completó. 

Quizás inspirados por las palabras del Papa (aunque posiblemente no), los directivos del New York Times pusieron manos a la obra (de enfrentar a las empresas de IA donde más les duele) y denunciaron legalmente a OpenAI y a su principal patrocinador, el gigante Microsoft. 

La demanda fue presentada a finales de diciembre último ante el tribunal de distrito de Manhattan y señala que la firma de Bill Gates y OpenAI “buscan aprovecharse de la enorme inversión del Times para crear productos sustitutos sin permiso ni pago”. Porque, como dijo Francisco, la IA debería tratarse de “fraternidad humana” y no de andar robando lo que escriben los periodistas del diario neoyorquino y millones de otros autores, profesionales o no, vivos o muertos, cuyos textos fueron en algún momento subidos a internet y son accesibles de manera electrónica.

Los abogados del periódico aseguraron que los sistemas de IA “generativos” lo que hacen es “generar” a partir de materiales previos y, de esa manera, “violan los derechos de autor en términos de contenidos y labor periodística”. Voceros del Times apuntaron que los “daños” serían de “millones de dólares” y exigen indemnizaciones apropiadas.

“Estas herramientas –resumió una vocera del diario– fueron creadas y continúan utilizando periodismo independiente y contenido que solo está disponible porque nosotros y nuestros pares lo informamos, editamos y verificamos a partir de un alto costo y una experiencia considerable”. 

En ocasiones anteriores, portavoces de empresas del sector de OpenAI aseguraron que sus productos solamente utilizan materiales como los que viene produciendo el New York Times, y miles de medios alrededor del mundo, solamente para “entrenar” a sus sistemas de autoaprendizaje. Todo muy lindo, pero no gratis. La aplicación ChatGPT es por ahora accesible, pero Microsoft apostó 13 mil millones de dólares en OpenAI para, idealmente, empezar a recuperarlos en algún momento, aunque sea a costas de los que escriben en el Times. 

“Entrenando” a estos sistemas como ChatGPT, Microsoft no apunta a que los usuarios puedan engañar a sus profesores con una monografía “escrita” en un minuto sino que se prepara para el futuro de la industria: productos capaces de llevar a una velocidad impensada hasta hace pocos años a sus buscadores y a sus softwares de marketing, ventas o lo que se necesite. Las computadoras cuánticas parecen estar llegando y, si los gigantes de hoy quieren sobrevivir, deben adaptarse a ritmos difíciles de comprender para el cerebro humano, de datos volando a billones de operaciones por segundo.

La guerra entre New York Times y Microsoft por los contenidos

Para la experta Mora Matassi, máster en Tecnología, Innovación y Educación por la Universidad de Harvard, el juicio del New York Times a OpenAI refleja “por lo menos tres cuestiones”, comenzando por la “larga puja de poder entre medios tradicionales, como los diarios, el cine o la televisión y los llamados ‘nuevos’ medios, como internet, redes sociales y, más recientemente, inteligencias artificiales generativas”.

Matassi, coautora del libro To Know Is to Compare: Studying Social Media across Nations, Media, and Platforms (MIT Press, 2023), es de las que piensan que los medios tradicionales y los nuevos “conviven, se influencian mutuamente y se retroalimentan”, aunque “suelen competir por la producción y circulación de contenidos y por el marcado de agendas sociales, culturales y políticas”. 

De hecho, le dijo a PERFIL desde Boston en una entrevista por e-mail que esta puja tuvo un episodio de alto impacto durante la huelga de actores, actrices y guionistas de Hollywood del año pasado. En particular, los intérpretes posicionaron al tope de sus reclamos que la industria audiovisual evite o regule fuertemente el uso de IA generativa para producir imágenes sintéticas sin la autorización o ganancia económica para los actores o actrices “simulados” por computadoras.

Por otro lado, siguió la investigadora, el juicio del Times “reenvía a una serie de regulaciones a la IA que probablemente se expandan a lo largo de los años, comenzando con la llamada AI Act, que está en vías de ser aprobada por la Unión Europea y que constituye un antecedente clave para pensar los modos en que se definirá qué constituye una inteligencia artificial responsable, segura y confiable”.

ChatGPT y OpenAl caerían en bancarrota en 2024

Finalmente, el juicio, dice la autora, “nos lleva a una discusión, quizás ontológica, sobre la esencia o definición de los contenidos en juego”. Matassi afirma que, “excluyendo los casos más claros en los cuales un chatbot reproduce palabra por palabra o casi exactamente un texto original sin las correspondientes atribuciones, cuando se utilizan AI generativas como ChatGPT, lo que surge de allí parece ser el resultado de un entrecruzamiento entre bases de datos, modelos, entrenamiento humano y el input que los usuarios proveen”. 

Eso, completa, “nos lleva a preguntas no tan fáciles de responder y que han generado debates intensos en espacios como las universidades: ¿cómo se redefinen la autoría y la originalidad?”.

Capitalismo y licuadoras sofisticadas. Cuando PERFIL le preguntó a la profesora Cecilia Rikap si los sistemas como ChatGPT son “creativos” o apenas una sofisticada licuadora que procesa conocimientos anteriores (como los artículos del Times) y los recicla en nuevas formas, la investigadora del Conicet y de la University College London (UCL), brindó un panorama económicamente ajustado. La autora de Capitalism, Power and Innovation: Intellectual Monopoly Capitalism Uncovered (Routledge, 2022) comenzó por señalar que ChatGPT “es las dos cosas. Y es también síntesis de conocimiento desarrollado no solo por OpenAI sino también por decenas de universidades y otras empresas”. 

Y luego disparó que es necesario que “empecemos por preguntarnos: ¿quiénes son los/as verdaderos/as creadores/as del contenido publicado por el New York Times y utilizado por OpenAI para entrenar a ChatGPT?”. El contenido, continuó, “no fue creado por el diario sino por sus trabajadores y por las decenas de personas que contrata como tercerizadas y freelancers”. El copyright, lamentó Rikap, “es un derecho de propiedad que fue creado para proteger a autores y artistas y que hoy beneficia principalmente a grandes empresas”.

“Lo que estamos viendo –subrayó durante una entrevista por WhatsApp– es una batalla entre distintos tipos de monopolios intelectuales, definidos como empresas, que se benefician de apropiarse de conocimiento y vender su acceso, ya sea directo o como productos basados en el conocimiento apropiado”. Al fin y al cabo, recordó, no es un fenómeno nuevo, ya que “las grandes editoriales y discográficas son ejemplos de antaño de esta práctica, mientras que las empresas de tecnología digital aparecieron luego perfeccionando y diversificando” esos mecanismos de apropiación.

Para Rikap, “lo que hace falta es repensar el régimen de producción de conocimiento que tenemos”, comenzando por entender que “el conocimiento siempre se produce sobre la base de conocimiento existente”. Y describió: “Cuando yo investigo, me apoyo en la obra de colegas de hoy y autores del pasado: el conocimiento debería entenderse como continuo proceso y producto colectivo”. 

En ese sentido, “la IA de hoy está en deuda con toda la historia de la computación y ChatGPT no solo está en deuda con el New York Times sino con todos los investigadores e investigadoras que desde otras instituciones contribuyeron a desarrollar LLMs con IA generativa”.

¿El mundo está loco, loco, loco, loco? (referencia... es una película de 1963). Como sea, el fenómeno de la IA generativa está provocando que las nociones de autoría y originalidad, “que deben ser entendidas en sus contextos culturales e históricos, se complejicen todavía más”, comenta por su lado Matassi. Es una complejidad, puntualiza, que Walter Benjamin ya anunciaba a comienzos del siglo XX con su célebre texto sobre la reproductibilidad técnica de las obras de arte. “Más allá del caso del Times, probablemente el modo en que describamos qué significa plagiarse vaya a ser redefinido”, pronostica. 

Rikap, por su lado, tiene en claro por dónde puede llegar esa redefinición. El desarrollo tecnológico, asevera, “nunca es autónomo y los modelos de IA que existen hoy responden a decisiones que se toman tanto entre gerentes como entre investigadores y desarrolladores de las empresas que dominan la industria digital”. En particular, señala, “los LLM que tenemos son responsabilidad de Microsoft y OpenAI –la primera financiando e influyendo en el tipo de tecnologías y productos que desarrolla la segunda–, Google –en particular su empresa DeepMind– y Meta”. Son “empresas que priorizan sus beneficios por sobre desarrollar tecnología que resuelva problemas de la sociedad en su conjunto”, engloba la investigadora.

"Esto nos lleva a preguntas no tan fáciles de responder y que han generado debates intensos en espacios como las universidades: ¿cómo se redefinen la autoría y la originalidad?"

En medio de estas miradas tecnológicas y económicas sobre derechos de autor y negocios, y teniendo en cuenta que hasta ahora ChatGPT está lejos de dominar el mundo, es oportuno recordar una definición de las habilidades “artísticas” de la IA generativa en su infancia a cargo de Nick Cave, a quien un fan tuvo la audaz idea de alcanzarle una letra generada por algoritmos para un tema en el estilo de... Nick Cave.

“Con todo el amor y respeto del mundo”, le respondió en su foro de chat The Red Hand Files el gran cantante australiano, “el tema es una basura y una burla grotesca de lo que es ser humano”. El músico se tomó el amoroso trabajo de escribir un largo texto para explicarse ante sus seguidores, donde opinó, entre otras cosas, que “ChatGPT rechaza cualquier noción de esfuerzo creativo, de que nuestro empeño anima y nutre nuestras vidas dándole profundidad y significado”. El sistema de chatbot “rechaza que exista un espíritu humano colectivo, esencial e inconsciente que sustenta nuestra existencia y que nos conecta a todos a través de nuestro esfuerzo mutuo”, agregó el cantante.

Un poco en sintonía con Rikap, Cave aseguró que ChatGPT “está acelerando la mercantilización del espíritu humano al mecanizar la imaginación” y “hace que nuestra participación en el acto de la creación sea inútil e innecesaria”.

Cierre estilo ‘Oppenheimer’ (otra película). Las frases del autor de The Ship Song son bellísimas y profundas, pero Nick es obviamente un romántico. Así que volvamos al terreno más mundanal de este asunto, incluyendo las variables de la monetización y las regulaciones. Matassi, por ejemplo, advierte que “siempre es complejo predecir el impacto que tendrán las tecnologías a futuro porque se trata de una historia no lineal, muchas veces inesperada, que se termina de conformar por un entrecruzamiento de funcionalidades técnicas, usos sociales, contextos culturales y grupos de poder interesados en tomar partido para moldear su producción, circulación y recepción”.

No obstante, matizó, “creo que es posible que estemos yendo hacia la aparición de diversos intentos regulatorios que probablemente tendrán que ser repensados con frecuencia, por dos razones”, siendo la primera el hecho de que la IA “es un objeto a priori difícil de encasillar que, como se vio en los últimos años, está teniendo un desarrollo muy veloz en el tiempo”.

Segundo, sigue Matassi, porque, al “acercarse la llamada inteligencia artificial general, que es aquella capaz de resolver cualquier problema intelectual, este tipo de tecnología tenderá a producir incertidumbre: ¿qué sucede si puede identificar y sortear obstáculos que los propios humanos desconocen?”. 

Y sobre las regulaciones, como las que propone el Papa, Rikap sostiene que son “extremadamente necesarias pero insuficientes”. El futuro, dice, “siempre trae cambio. Lo que tenemos que preguntarnos es qué cambio se están promoviendo y prefigurando desde hoy, y ahí volvemos al tipo de IA y a las decisiones que toman al respecto empresas como Microsoft, su satélite OpenAI y Google”, los principales jugadores del momento en este terreno. 

ChatGPT, apuntó además la profesora, esta vez a tono con Cave, “no va a reemplazar por completo a profesiones que requieran más que lógica y memoria: podemos imaginar un robot jugador de fútbol (o un robot cirujano) al que se entrena con todas y cada una de las jugadas de todos los partidos jugados en el mundo en la historia y que va a ser seguramente un buen jugador”. Pero, prometió, “nunca va a ser extraordinario, nunca va a tener la magia de los grandes jugadores”, porque no tendrá “imaginación y tampoco emociones”. 

Para cerrar, declara que el problema es, al final de todo este debate, “el tipo de computación avanzada que se produce, enfocada en reemplazar (sobrepasar) al ser humano como si se tratara de algo parametrizable, como si la ciencia y la tecnología mismas estuvieran exentas de valores y emociones”. Al menos desde el desarrollo de la bomba atómica, “es claro que la ciencia no puede pensarse impune e inmune a los intereses económicos y políticos”, agrega. 

Cambiar este paradigma, completó Rikap, requiere preguntarnos “ciencia para qué y para quién”. Y se pregunta: “¿Acaso nos dieron alguna vez el espacio para pensar y decidir colectivamente qué tecnologías fomentar y por qué? Nunca se nos preguntó si queríamos una vigilancia masiva a escala planetaria, armas digitales para fines militares, policiales y terroristas, campañas de marketing basadas en un seguimiento pormenorizado de nuestros comportamientos en las redes o apropiación de nuestros datos y de la investigación pública para rédito privado”.

El escenario puede que no sea muy alentador. Pero hay esperanza: al fin y al cabo, quizá no hay que temer que terminemos en un mundo con un Skynet listo para matarnos a bombazos y espectaculares disparos láser. Es posible que sistemas como ChatGPT nos liquiden lentamente antes de llegar a esa etapa superior del tecnologismo, haciéndonos mucho más bobos, más amarretes, codiciosos y menos creativos de lo que ya somos (mirando a la pantallita del celular durante horas hasta babearnos).