OPINIóN
Columna de la UB

¿A qué distancia estamos de que la Inteligencia Artificial se reconozca a sí misma?

¿Podremos tener algún día máquinas con esta capacidad? ¿Qué se reconozcan a sí mismas, que tengan sentimientos y actúen en consecuencia? Si esto es posible, ¿es deseable? ¿Hacia dónde nos lleva?

Inteligencia artificial
Inteligencia artificial. | Imagen de 0fjd125gk87 en Pixabay.

Transcurrieron casi 70 años desde que la Inteligencia Artificial (IA) se presentó por primera vez al público y, desde entonces, creció en su popularidad. Sin embargo, hay una pregunta que nos persigue desde hace casi tanto tiempo como desde su creación. ¿Podrán estos sistemas súperinteligentes adquirir algún día la suficiente sensibilidad para igualar o incluso superar a la humanidad?

En el artículo “Conscious Machines”, publicado en “Machinery of Consciousness - Proceedings, National Research Council of Canada”, el científico Marvin Minsky, uno de los padres de la inteligencia artificial y cofundador del laboratorio de IA del Instituto Tecnológico de Massachusetts (MIT), expuso ya en 1991 la posibilidad de que las “computadoras” se vuelvan conscientes.

La idea de que las computadoras (o, mejor dicho, el software que realiza las operaciones) sean inteligentes es, de por sí, controvertida, y muchas de las aplicaciones en el área muestran limitaciones muy claras, pues todavía la capacidad de las máquinas para imitar la conducta inteligente del hombre tiene grandes espacios sin llenar. No obstante, las deficiencias se van reduciendo y los robots o máquinas controladas por estos programas están consiguiendo, en forma paulatina, realizar cada vez más tipos de operaciones inteligentes, tareas que se consideraban propias del hombre.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Inteligencia Artificial: la nueva forma de vincularse con las máquinas

Hasta hace poco, se utilizó a la inteligencia como diferencia principal entre el humano y el resto de los animales, de manera tal que por ella se lo definía: un animal racional. La racionalidad, hasta ahora, parecía un concepto seguro para indicar la diferencia y la supremacía del hombre. Sin embargo, con el estudio del comportamiento de distintas especies animales y el surgimiento de la denominada IA, este criterio de diferenciación ya no lo es tanto. El pensar inteligente ya no es exclusivo de los humanos. 

La pregunta acerca de si los sistemas de IA son capaces de pensar es cada vez menos teórica y más una cuestión práctica. En muchos laboratorios y en aplicaciones técnicas avanzadas, las computadoras están realizando cosas asombrosamente cercanas a las que el hombre es capaz de hacer y de una manera muy parecida. La pregunta sobre si se debe llamar pensamiento a lo que hacen estos programas no se la plantean sólo los filósofos, sino que aparece en publicaciones especializadas o de difusión general, e incluso en los medios de comunicación masivos. Ocurre lo mismo con la cuestión acerca de qué significa pensar en el caso del humano, y qué similitudes y diferencias existen entre lo que éste hace y lo que hacen algunas máquinas.

Un partido político danés quiere mejorar la democracia con inteligencia artificial

En mayo de 1997, la computadora “Deep Blue” de IBM venció en un torneo de ajedrez a Garri Kaspárov, el entonces campeón del mundo y posiblemente el mejor jugador de todos los tiempos. Si bien este torneo fue utilizado como publicidad por la empresa de informática que construyó la máquina, lo que ocurrió fue un hito importante en la evolución de los sistemas de IA.

En la actualidad, muchos de estos sistemas superan a los especialistas humanos en distintos campos, como por ejemplo en la búsqueda de áreas para la explotación minera, en la predicción del estado del tiempo, en la aplicación de herbicidas en zonas de cultivo, en la detección de ataques informáticos o al responder de manera automática en el mercado de valores. Si damos por sentado que, a la fecha, existe un conjunto de sistemas artificiales, es decir creados por el hombre, cuyas características permiten afirmar que son inteligentes, podemos concluir que, en poco tiempo, tendremos cada vez más sistemas que abarcarán una mayor cantidad de áreas del conocimiento y resolverán problemas con un mayor grado de inteligencia. Por lo tanto, la IA no es objeto de discusión. Este no es el problema.

En el idioma español, se define como “consciente” a aquél que tiene “conciencia o noción de una cosa”. Mientras, “conciencia” es un sentimiento interior por el cual el hombre aprecia sus acciones. El término conciencia está también unido a los derechos y la moral. Además, el hombre tiene conciencia de su existencia.

En inglés, dos términos separan estas ideas: “conscience”, palabra aplicada a lo moral y a los derechos del hombre, y “conscious”, relacionada con el saber (que existo, por ejemplo), lo racional, el conocimiento, reconocimiento y sensibilidad (los sentidos). 

Claves para proteger al consumidor en la era de la inteligencia artificial

Volviendo a las expresiones de Minsky, este autor dice que nuestras mentes están animadas de algún tipo de fuerza vital o esencia, llamada “Mente” (Mind, en inglés), “Conciencia” (Consciousness), o “Alma” (Soul), y que está por encima de las redes de neuronas de nuestro cerebro. De acuerdo con varios autores, el pensamiento humano podría no estar basado en algún principio científico conocido. Sin embargo, Raymond Kurzweil, multifacético experto en IA y transhumanista, ya propuso que, debido al incremento exponencial de las capacidades de procesamiento, se llegará al momento en que las máquinas ganen consciencia, punto que define como “la singularidad”. 

Por lo tanto, las preguntas que surgen son: ¿Podremos tener algún día máquinas con esta capacidad? ¿Qué se reconozcan a sí mismas, que tengan sentimientos y actúen en consecuencia? Si esto es posible, ¿es deseable? ¿Hacia dónde nos lleva?

A pesar de algunas afirmaciones recientes pero dudosas, como la del exingeniero de Google, Blake Lemoine, quien, antes de que fuera despedido de esa empresa, afirmó que un chatbot había adquirido sentimientos, estamos bastante lejos de esa realidad.

*Carlos Esteves, profesor de la Facultad de Ingeniería y Tecnología Informática de la Universidad de Belgrano.