COLUMNISTAS
estudio

La culpa no era del Chatbot

130725_chatgpt_shutterstock_g
ChatGPT. Su uso afecta el pensamiento crítico, entonces si escribís con IA, pensás peor. | shutterstock

Hace unos días volvió a circular un estudio del MIT que sostiene que el uso de ChatGPT puede afectar el pensamiento crítico. La conclusión que más rápido se viralizó fue simple y contundente: si escribís con IA, pensás peor. Y como suele pasar en estos tiempos, bastó un título llamativo y una interpretación parcial para que se consolidara como verdad absoluta en el feed.

El problema es que si uno mira en detalle el estudio, la narrativa empieza a tambalear. La muestra fue extremadamente limitada: 54 personas, con tareas artificiales, alejadas del uso cotidiano que cualquiera de nosotros hace de estas herramientas.

Solo 18 personas llegaron al final del experimento. Las conclusiones, más que contundentes, son débiles y abiertas a múltiples interpretaciones. Sin embargo, el dato incompleto ya había circulado como dogma. Porque en el ecosistema digital actual, una cifra floja pero alarmante tiene más chances de viralizarse que una explicación rigurosa.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Lo preocupante no es solo el estudio en sí, sino cómo lo recibimos. Cómo necesitamos que venga alguien, desde el MIT o desde donde sea, a decirnos que usar IA está mal. Que estamos dejando de pensar. Que estamos cediendo nuestras capacidades a un sistema que nos atonta. Nos cuesta pensar a estas tecnologías como herramientas. Preferimos ubicarlas como amenazas, porque eso encaja mejor con el miedo que ya teníamos.

La narrativa del miedo es cómoda. Requiere menos esfuerzo que una discusión seria sobre cómo incorporar la inteligencia artificial de forma crítica. Y genera más impacto. Más retuits, más posteos, más indignación. Pero también más ruido y menos conversación genuina.

Lo que más me preocupa es cómo ciertas advertencias se filtran de forma acrítica en la conversación pública, como si todo lo que tenga un logo universitario ya fuese incuestionable. Hay papers con respaldo metodológico serio y consecuencias interesantes, pero también hay papers oportunistas que funcionan más como disparadores mediáticos que como conocimiento validado. Y el algoritmo no distingue. Solo amplifica. Así, el temor se transforma en contenido, y el contenido en convicción colectiva.

Mientras tanto, existen trabajos más serios, con metodologías mucho más sólidas, que muestran que el uso estratégico de estas herramientas puede mejorar la calidad del pensamiento, organizar mejor las ideas, potenciar la escritura, e incluso hacernos más conscientes de nuestros propios sesgos. Pero esas investigaciones no tienen el mismo rebote. Porque el miedo siempre es más vendible que la complejidad.

Y tampoco ayuda que muchos debates sobre tecnología sigan atrapados entre el sensacionalismo y la burla. O estamos ante una herramienta demoníaca que va a destruir el intelecto humano, o ante un juguete inofensivo que sólo sirve para escribir mails. Pero ni lo uno ni lo otro. Lo que falta es una conversación adulta, con matices, con ejemplos concretos, con un poco menos de sarcasmo automático y un poco más de responsabilidad intelectual.

Estamos tan obsesionados con que la IA “piense por nosotros” que nos olvidamos de algo básico: nadie nos está obligando a usarla mal. Lo que falta no es una solución mágica ni un regulador omnipresente, sino un poco de criterio. Y sobre todo, una conversación menos infantilizada.

Si seguimos reproduciendo titulares alarmistas, lo que se debilita no es nuestra inteligencia. Es nuestra capacidad de aprovechar lo que tenemos a disposición. Lo fácil es acusar a la tecnología. Lo difícil es revisar cómo la estamos usando.

Y si en lugar de repetir eslóganes de alerta empezáramos a enseñar a usar bien estas herramientas, tal vez el pensamiento crítico no desaparecería, sino que se adaptaría. No para reemplazarnos, sino para obligarnos a pensar mejor, incluso frente a lo que ya parece pensado.

Por eso insisto: la culpa no era del chatbot. Era nuestra.

*Autor y divulgador. Especialista en tecnología emergente.