opinión

Odisea del ciberespacio

Le pedí a ChatGPT que analizara mi nota de la semana pasada en PERFIL para saber si era humana o artificial.

El logo de Editorial Perfil Foto: Cedoc Perfil

Empiezo por una confesión. Antes de entregar un nota a PERFIL la hago corregir por ChatGPT, el programa más usado de Inteligencia Artificial. El bicho es un buen corrector en lo que se refiere a errores tipográficos u ortográficos, pero también tiene sus ideas respecto del estilo. En general, me propone cambios que desecho porque me parece que le restan vida al texto, lo hacen demasiado impersonal. Pero a veces se le ocurren formas mejores de redactar una frase o de exponer una idea y algunas las tomo en cuenta. Supongo que muchos colegas hacen lo mismo, lo cual no me parece un pecado. Pero de hacer que la máquina corrija a hacer que escriba no hay un salto tan grande.

Flota en el ambiente la pregunta por la posibilidad de que la IA termine haciendo la tarea de los redactores, cosa que ya ocurre en algunos medios, aunque el producto de la escritura robótica no tiene por ahora un gran brillo y tampoco un gran interés. Pero la marea avanza. El otro día hablé con un profesor universitario preocupado por la posibilidad de que sus estudiantes presentaran ensayos redactados por un programa de inteligencia artificial, lo cual es moneda corriente en los distintos niveles educativos.

El profesor no estaba seguro de poder detectar la diferencia, aun en una tesis doctoral. Desde el Test de Turing, formulado por primera vez en 1950, científicos y filósofos discuten sobre la posibilidad de que los humanos no puedan detectar si un texto proviene de una computadora. Una prueba inversa sería que las computadoras puedan determinar si un texto ha sido escrito por un humano. Le pregunté a ChatGPT si era capaz de hacerlo y me contestó que sí, aunque no en todos los casos y sin una certeza del ciento por ciento. Así, nuestro profesor puede recurrir a una táctica del judo para detectar trampas: usar contra el adversario su propia fuerza y someter sus trabajos a los programas (hay varios) que detectan la IA en un texto. Sin embargo, sus alumnos podían retrucar por la misma vía, ya que esos programas son capaces de “humanizar” artificialmente lo que la inteligencia artificial produce.

Entonces se me ocurrió hacer una prueba: le pedí a ChatGPT que analizara mi nota de la semana pasada en PERFIL para saber si era humana o artificial. Me contestó que era probablemente humana y me dio cuatro razones. Porque tenía “un tono confesional, cargado de ironía y juicio personal”, por algunas referencias poco habituales, porque la estructura era desordenada, con un matiz coloquial y porque exponía ciertas dudas del autor. Pero también me dijo que no está descartado que el texto tuviera origen artificial. No me quedé muy tranquilo. Pensé que uno no solo no debe usar la IA, sino que tampoco puede permitir que lo parezca.

Entonces le di la nota a uno de esos programas humanizadores para eliminar cualquier rasgo de IA. Reemplazó entonces el texto por otro pero, como hacen los jugadores de póker, no me dejó verlo si no pagaba. Así fue como me quedé sin conocer una versión verdaderamente humana y sin sospechas de mi nota. Pero pude sacar una conclusión sorprendente: por este camino, las notas consideradas humanas serán solo las creadas por la inteligencia artificial. Falta un paso para cerrar el círculo: lograr que los lectores sean también artificiales.