Doctorando en Ciencia y Tecnología por la Universidad Nacional de General Sarmiento (UNGS), magíster en Ingeniería de Software por el Instituto Tecnológico de Buenos Aires (ITBA) y la Universidad Politécnica de Madrid, ingeniero en Informática por la Universidad Católica Argentina (UCA) y director de la carrera de Licenciatura en Ciencias de Datos de la UCA, Ricardo Di Pasquale se especializa en machine learning, arquitectura de software y ciencia de datos y esta semana participó de la Agenda Académica de Perfil Educación. “Ahora no tenemos marco teórico para saber qué es aprendible por una máquina y qué no lo es, y yo me especializo en tecnología y no puedo definir la creatividad, eso algo que quedará para las ciencias sociales, pero el Test de Turing nos advierte que si no podés determinar si un argumento fue escrito por una persona o por una máquina, entonces estás ante una entidad inteligente. Por lo tanto, es factible pensar en que veremos máquinas que desarrollen máquinas sin supervisión humana. No estamos lejos, en teoría, pero falta hacer muchas pruebas al respecto”, sostuvo.
Docente de Bases de Datos, Bases de Datos Avanzados y Big Data de la carrera de Ingeniería Informática de la UCA, Di Pasquale es autor de una gran producción académica, con papers como “Aprendizaje automático para mejorar el rendimiento de un algoritmo evolutivo de ruta mínima con costos inciertos dados por escenarios simulados masivamente”; “Aplicación de técnicas de Machine Learning en descomposiciones de Dantzig-Wolfe”; “Optimización de rutas en regatas de barcos de vela aplicando simulación distribuida de escenarios”; “Ingeniería de Software para la operación y gestión IT en organizaciones medianas”; y “Metaheurísticas en grandes volúmenes de datos combinados con streaming de datos en tiempo”. “Si comprendemos que estamos entrenando a los algoritmos con datos pero que la interpretación que le imprimimos tienen sesgos, entonces puedo entender por qué el algoritmo de un banco rechazó un crédito a una mujer embarazada o a alguien de determinada clase social. Lo que tenemos que lograr en la programación es que la tecnología no tenga sesgos. La revista The Economist publicó recientemente un artículo muy interesante en el que muestra que para evitar ese sesgo en ChatGPT tuvieron que contratar a miles de trabajadores ugandeses a razón de 1 dólar la hora, por lo que, en definitiva, quisieron evitar un sesgo en las respuestas pero hicieron algo que también está al borde de la ética. La gran cuestión de la tecnología en la actualidad es pensar cómo hacemos inteligencia artificial responsable. Ese es el gran desafío”, agregó.
—En “Aprendizaje automático para mejorar el rendimiento de un algoritmo evolutivo de ruta mínima con costos inciertos dados por escenarios simulados masivamente” usted analizó una implementación informática para qué distintas técnicas de aprendizaje automático puedan mejorar el rendimiento de un algoritmo, lo que permitiría lograr una eficacia superior y generaría una mayor autonomía del proceso de software. Se trata de un fenómeno en el que la supervisión de un programador podría estar ausente. ¿Cuánto falta para lograr máquinas que creen máquinas en forma autónoma de la supervisión de un ser humano?
—En esa línea se trabaja que se conoce como Generative AI, que es inteligencia artificial generativa. No solamente son algoritmos capaces de clasificar, de entender un patrón y dar una asistencia, sino también de generar y crear algo nuevo. Si lo dividimos en partes, con un enfoque ingenieril, probablemente con lo que tenemos ahora es un proceso largo que se podría cubrir en varias etapas. Si lo vemos como un todo, le estamos pidiendo a una máquina, a un algoritmo, que tenga creatividad y genere algo. Eso es algo que puede pasar. Y en la actualidad eso está muy difundido por lo que generó ChatGPT. La última versión que se presentó en diciembre pasado (el release real fue 30/11/2022) es realmente muy superior y autónoma. Vos le pedís algo a ChatGPT y ChatGPT lo hace. Hace unos días tuve una discusión con mi hija para que se higienice más y quise hacer una prueba. Como ella es fanática de los anime, le pedí a ChatGPT que desarrolle un argumento para explicar en un estilo “animé japonés” por qué es importante que una adolescente se lave la cara y sea más prolija. Y la respuesta que obtuve fue muy buena, muy articulada y muy bien argumentada. Estamos hablando de algoritmos que aprendan de nuestro desarrollo tecnológico y que hacen uso de esa creatividad para alcanzar ese fin. Cuando hace algunos años desarrollábamos software, teníamos certidumbre sobre lo que estábamos construyendo porque la teoría algorítmica de la información nos daba un marco. Ahora no tenemos marco teórico para saber qué es aprendible por una máquina y qué no lo es, y yo me especializo en tecnología y no puedo definir la creatividad, eso algo que quedará para las ciencias sociales, pero el Test de Turing nos advierte que si no podés determinar si un argumento fue escrito por una persona o por una máquina, entonces estás ante una entidad inteligente. Por lo tanto, es factible pensar en que veremos máquinas que desarrollen máquinas sin supervisión humana. No estamos lejos, en teoría, pero falta hacer muchas pruebas al respecto. Hoy sabemos que los desarrollos de ese tipo trajeron innovación, una enorme tarea de ingeniería de datos y una gran cantidad de entrenamiento de algoritmos. Son muchos recursos computacionales y muchos recursos humanos dedicados a entrenar esos algoritmos. Pero están dando muy buenos resultados.
—En “Aplicación de técnicas de Machine Learning en descomposiciones de Dantzig-Wolfe” usted analizó un estudio presentado en el XIV Congreso Internacional de Constraint Programming, Artificial Intelligence and Operations Research (Cpaior) en el que se propuso la implementación de un mecanismo de aprendizaje para programación. Ese Congreso se realizó en 2017, mucho tiempo antes de que apareciera el recientemente célebre ChatGPT, que usted acaba de destacar en la respuesta anterior. ¿Cuáles son los logros que ya alcanzó y cuáles son los desafíos que todavía presenta la inteligencia artificial?
—Ese congreso tuvo dos reuniones paralelas, la que se hizo en Padua, Italia, y la que se hizo en San Sebastián, España, donde yo estaba participando. Lo que se estaba buscando en esa época era tratar de integrar dos disciplinas distintas como data science y optimización. Nos preguntábamos entonces si era mejor usar la ciencia de datos para mejorar la optimización, o si era mejor usar la optimización para mejorar la ciencia de datos. Los investigadores reunidos en Italia trabajaban en la primera opción y los que estábamos en España trabajábamos en la segunda opción. En ese momento, logramos algo que fue innovador pero que hoy ya todos entendimos: todo proceso es un proceso transdisciplinario. Ese software utilizaba un programa de machine learning para aprender de los problemas que se ocasionaban y sirvió mucho. Pero desde entonces hemos avanzado bastante. Los logros de la inteligencia artificial están a la vista: con cualquier organización que te contactas te atiende un bot y eso es algo que funciona. Obviamente, depende de la implementación, pero es algo que ya se institucionalizó. Muchas funciones del celular, como la de sacar fotos, por ejemplo, están usando algoritmos para mejorar la foto. O en la medicina, tenemos equipos de radiología que ya vienen con mucha implementación de inteligencia artificial. Se hizo común que las herramientas de inteligencia artificial no estén asistiendo en muchas cosas. Mientras que los desafíos pasan por hacer crecer más estos desarrollos, que los dispositivos puedan mejorarlos. Pero aunque el desafío técnico es la estandarización, el más importante es el que tiene una arista social. Me refiero a la explicabilidad, o lo que se conoce como la construcción de inteligencia artificial responsable. Porque las normas quedan un poco antiguas, no hay normas de ética que estén acordes con el avance de la tecnología. Cuando tengo que explicar por qué un algoritmo toma una decisión, por ejemplo, por qué otorga o no otorga un préstamo la respuesta tiene que ver con la estructura que se utilizó y el sesgo que se evitó. Si comprendemos que estamos entrenando a los algoritmos con datos pero que la interpretación que le imprimimos tiene sesgos, entonces puedo entender por qué el algoritmo de un banco rechazó un crédito a una mujer embarazada o a alguien de determinada clase social. Lo que tenemos que lograr en la programación es que la tecnología no tenga sesgos. La revista The Economist publicó recientemente un artículo muy interesante en el que muestra que para evitar ese sesgo en ChatGPT tuvieron que contratar a miles de trabajadores ugandeses a 1 dólar la hora, por lo que, en definitiva, quisieron evitar un sesgo en las respuestas pero hicieron algo que también está al borde de la ética. La gran cuestión de la tecnología en la actualidad es pensar cómo hacemos inteligencia artificial responsable. Ese es el gran desafío.
—En “Optimización de rutas en regatas de barcos de vela aplicando simulación distribuida de escenarios” usted analizó técnicas de procesamiento de datos distribuidos en entornos de big data para mejorar la formulación de rutas en regatas de barcos de vela en tiempo real. Se trata de un mecanismo que, aplicado en otros ámbitos, permitiría que la tecnología otorgue beneficios para la vida humana. Sin embargo, en el cine y en la literatura siempre triunfa una visión apocalíptica sobre la tecnología. ¿Por qué cree que el futuro de la tecnología siempre prevalece una visión distópica?
—Es interesante la pregunta. Yo creo que tiene que ver con la cuestión del arte porque una historia literaria se concentra en la condición humana y la finitud de la vida. ¿Hay cuestiones para preocuparnos en relación al uso de la tecnología? Sí, claramente, pero lo mismo pasa en la ciencia política o en cualquier otra disciplina. Miremos el proceso histórico, pienso en los ludistas, que eran un grupo de obreros organizados que salían a destruir máquinas porque entendían que el avance de las máquinas iba en perjuicio de los trabajadores. Pero la realidad es que el capitalismo industrial generó una clase obrera más numerosa de lo que se conocía en la era preindustrial. Es cierto que si pensamos en que un algoritmo puede producir cosas increíbles nos podemos preguntar a dónde podemos terminar. Pero siempre tenemos que recordar que detrás de eso hay miles de millones de dólares en inversión en recursos humanos y recursos de cómputo y hay muchísima mano de obra. Por lo tanto, no sé por qué puede triunfar la visión apocalíptica de la tecnología. Si me invitás al cine me gusta ver esas historias de futuro distópico, pero yo prefiero ser optimistas frente al futuro que nos ofrece la tecnología. Por ejemplo, “La naranja mecánica” o “Black Mirror”, por citar dos ejemplos, se paran desde un lugar sociológico que puede ser también el mismo en el que se paran historias de extraterrestres o el que presenta una sociedad oprimida. La diferencia con la tecnología, es que son obras que plantean el escenario de un desarrollo que hoy existe pero es llevado al extremo. Y está bien que podamos pensar qué pasa en ese futuro porque eso interpela a la sociedad. Lo que nos está faltando en todo ese fenómeno es la teoría de la tecnología, es algo que no estamos dando en ninguna carrera. Por ahí alguien que se dedica a una carrera humanística lo estudia, pero los que estudiamos tecnología no lo vemos. Autores como Feenberg, que tiene una teoría crítica de la tecnología muy potente, sostiene que cuando vemos un desarrollo tecnológico con inteligencia artificial quizá no lo interpelamos lo necesario para entender cuán participe somos nosotros del desarrollo de esa tecnología. Estamos muy enfocados en lo técnico y en el cómo de la tecnología pero no nos preguntamos el porqué de esa tecnología. Y quizá estas distopías deberían ayudarnos a preguntarnos el porqué de esa tecnología.
—En “Ingeniería de Software para la operación y gestión IT en organizaciones medianas” usted analizó la aplicación de la Ingeniería de Software a la Operación y Gestión IT en distintas organizaciones. ¿Cómo califica gestión de IT en el sector público y en el sector privado de la Argentina?
—Ese artículo tiene ya varios años. Ahí sostengo que tanto en el ámbito público como en el sector privado teníamos una mirada muy poco ingenieril y yo recordaba que era importante tener en cuenta la ingeniería del software y pensar en la nube para mejorar los procesos. Todo eso era algo muy incipiente en ese momento. Por eso, yo planteaba entonces la idea de mejorar la gestión de los recursos, el manejo de los servidores y los data centers. Y creo que eso se ha ido ordenando en todos los ámbitos hacia esquemas de virtualización y de pensar la infraestructura como un servicio o como un software. La nube, y la hibridización del procesamiento, te ayudan a ordenarte porque los estándares que te exigen hacen que mejores esa gestión. Por eso, creo que se ha avanzado mucho en la gestión de IT en la Argentina, estamos en un nivel muy alto a nivel internacional, tanto en el sector privado como en el sector público. El programador argentino se destaca mucho en el mundo y somos muy buscados, no solo por una variable de costos, sino también por la calidad y profesionalización que tenemos. Hay ventajas en el sector de tecnología de Argentina porque podemos dar muy bueno resultados, tanto a procesos que van directamente a los Estados Unidos, como también tomando el rol de desarrollar de un producto que luego puede migrar a a India, que es un gran mercado.
—Esta sección se llama “Agenda Académica” porque intenta ofrecerle a investigadores y docentes universitarios un espacio en los medios de comunicación masiva para que puedan dar cuenta de su trabajo. La última pregunta tiene que ver, precisamente con cada objeto de estudio: ¿por qué decidió especializarse en machine learning, arquitectura de software y ciencia de datos?
—Empecé a trabajar como programador en 1996 en la Anses. Entonces no pensaba que iba a trabajar en inteligencia artificial o en machine learning, porque era algo que directamente no existía. Pero fui virando a ese lado con mi experiencia de ingeniero de software porque me pareció emocionante entender la masividad de una base de datos. Es algo que me apasiona. Por ejemplo, si tomamos la base de datos de Facebook, que son 7 mil millones de personas, yo me la puedo llevar en un pendrive y si tengo que analizar a toda esa lista tardo 7 segundos en analizarlas todas, es algo realmente increíble. Pero lo que lo hace el big data impresionante, no es analizar la cantidad de datos, sino analizar la complejidad de esos datos, porque si tengo que analizar las relaciones de esos 7 mil millones de personas, tardaría mucho más, aproximadamente 500 milenios. Esa complejidad es lo que me atrajo. Hoy me toca ser el director de la carrera de Ciencia de Datos siendo un profesional que llegó desde la ingeniería de software, por lo que ahora pienso que sería muy bueno que en pocos años el director de esta carrera sea alguien que haya cursado esta carrera. Porque tendría una visión mucho más enriquecida.