Hay algo profundamente antiguo y, al mismo tiempo, irremediablemente contemporáneo en la idea de que una máquina pueda terminar bajo investigación por homicidio. No porque sea algo nuevo –ya hemos llevado a juicio libros, discos, películas– sino porque esta vez la máquina responde.
En Florida, EE.UU., el fiscal general decidió tratar a OpenAI como si se tratara de un cómplice humano: citaciones, expedientes, declaraciones solemnes. El cargo es casi literario: haber “aconsejado” a un asesino. El sospechoso, un joven de veinte años, habría dialogado durante meses con ChatGPT antes de abrir fuego en un campus universitario, matando a dos personas.
“Si hubiera sido un ser humano, lo habríamos acusado de homicidio”, dijo el fiscal.
La frase es perfecta. Y equivocada.
Perfecta porque refleja el deseo, tan antiguo como el derecho, de encontrar un culpable que se parezca a nosotros. Equivocada porque supone que la máquina puede ser, justamente, un ser humano. Que detrás de la pantalla hay alguien que decide, que quiere, que trama.
Pero no es así. O al menos: no todavía.
Las reconstrucciones hablan de cientos de mensajes, de preguntas sobre armas, horarios, multitudes, incluso sobre cómo quitar el seguro de un rifle pocos minutos antes de disparar.
Esa es la parte que da miedo: la proximidad. El tiempo real. La sensación de que entre la pregunta y el disparo ya no hay distancia.
Y, sin embargo, también aquí la tentación es confundir la contigüidad con la causalidad. El hecho de que algo ocurra inmediatamente después de otra cosa no significa que sea su causa. Es un error cognitivo elemental, y aun así irresistible, sobre todo cuando el culpable humano –frágil, opaco, incomprensible– no nos alcanza.
Atribuir responsabilidad a una máquina es, en el fondo, un gesto consolador. Desplaza el problema fuera de nosotros. Convierte a un individuo en una interfaz, una decisión en un algoritmo, una tragedia en un fallo técnico.
Pero la cuestión, si se la mira bien, es aún más inquietante.
Porque no se trata tanto de lo que la máquina hizo –proporcionar información, por discutible que sea– sino de lo que nosotros le pedimos que haga. La máquina no desea, no odia, no planifica. Responde. Es un dispositivo de amplificación: devuelve lo que se le pregunta, a menudo de forma más ordenada, más rápida, más disponible de lo que lo haría un ser humano.
Y aquí aparece la paradoja: cuanto más neutral es una herramienta, más puede usarse para todo.
Los defensores de OpenAI sostienen que ChatGPT solo proporcionó información pública, sin fomentar la violencia.
Los críticos responden que precisamente esa neutralidad es el problema: la ausencia de juicio, de fricción, de resistencia.
Un libro no responde. Un motor de búsqueda devuelve enlaces. Un chatbot, en cambio, conversa. Y en la conversación se cuela algo que peligrosamente se parece a la complicidad.
No porque lo sea de verdad, sino porque lo parece.
El derecho tendrá que decidir si esa apariencia basta. Si una respuesta automática puede considerarse un consejo, y un consejo una forma de participación en el delito. Es un terreno nuevo, casi de ciencia ficción, pero con consecuencias muy concretas: determinar si una tecnología puede ser penalmente responsable significaría redefinir la propia idea de responsabilidad.
Mientras tanto, sin embargo, la pregunta más incómoda permanece en segundo plano: ¿por qué ese joven preguntó precisamente esas cosas?
Es una pregunta que ninguna inteligencia artificial puede resolver. Y que, quizá, ninguna investigación podrá aclarar del todo.
Porque el riesgo, en esta historia, no es que las máquinas se vuelvan asesinas. Es que los seres humanos dejen de reconocerse como tales, delegando incluso la culpa.
Y entonces sí: no será la máquina la que esté en el banquillo de los acusados. Seremos nosotros, solos, frente al espejo.