AGENDA ACADéMICA
Agenda Académica

Laura Ación: “El problema surge cuando la inteligencia artificial se mete con la democracia, la salud o la justicia”

La directora del Laboratorio de Uso Responsable de Datos del Instituto de Cálculo de la UBA advierte sobre los mitos del big data y la supremacía del algoritmo. La relación entre el procesamiento masivo de datos y el peligro de las redes sociales. La ética de la tecnología.

ENTREVISTA A LAURA ACION 20220804
Laura Ación se especializa en bioestadística aplicada en la investigación clínica y en la ciencia de datos. | NESTOR GRASSI

Doctora en Bioestadística por la Universidad de Iowa y licenciada en Biología por la Universidad de Buenos Aires (UBA), investigadora adjunta del Consejo Nacional de Investigaciones y Técnicas (Conicet) en el Instituto de Cálculo de la UBA, Laura Ación se especializa en bioestadística aplicada en la investigación clínica y en la ciencia de datos y esta semana participó de la Agenda Académica de Perfil Educación. “Las grandes tecnológicas, como Facebook o Google, a las cuales les regalamos nuestros datos masivamente, encuentran que aplicando herramientas con muchísimos datos pueden predecir comportamientos y vendernos más productos. Pero cuando la inteligencia artificial se relaciona al marketing, a si elegís una película o a la próxima canción que vas a escuchar, quizá no es tan grave. Lo delicado de estos algoritmos, de estos modelos que surgen de estas maquinitas de predecir, es más peligroso en otro sentido. El problema surge cuando la inteligencia artificial se mete con la democracia, la salud o la justicia. Ahí entramos en un rojo. Una cosa es venderte auriculares y otra cosa es la decisión de todo un país”, advirtió.

Directora del Laboratorio de Uso Responsable de Datos del Instituto de Cálculo (IC) de la Facultad de Ciencias Exactas de la UBA y cofundadora de MetaDocencia, una organización sin fines de lucro que fomenta la ciencia y la educación abierta para investigadores, donde en breve dictará el curso “Impactos Sociales de la Inteligencia Artificial”, Ación es autora de distintos artículos, papers y ensayos entre los que se destacan Datos digitales de salud: ¿parte de la solución y del problema?, Desmitificando la inteligencia artificial, Visitas a urgencias y reingresos hospitalarios en un sistema de salud argentino y Mejorar la gestión del sistema de salud pública de Argentina para mejorar las respuestas a la pandemia. “Lo cierto es que detrás de los algoritmos hay mucho potencial económico, muchísimo. Hay algoritmos que se pueden vender para generar una gran cantidad de dinero y eso genera un gran acelere. Entonces, hay quienes nos quieren convencer de que los algoritmos son mejores que los seres humanos. Pero hay que tener mucho cuidado, porque a veces no predicen lo que parece que están prediciendo. Detrás de la superioridad algorítmica hay una cuestión cultural. A veces parece que la tecnología, la técnica, la matemática, y todas estas cosas de las que no se entiende mucho, son mejores que la medicina, las ciencias sociales, la ética y la filosofía. Yo no lo creo”, agregó

20211218_tecnologia_shutterstock_g
Ación advierte que el big data mejora las ventas de las grandes tecnológicas por los datos personales que recibe del público.

—El big data fue muy cuestiono tras los antecedentes de Facebook y Cambridge Analytica y la malversación de información personal para alterar resultados electorales. Pero el correcto uso de la inteligencia de datos podría mejorar el diseño, la implementación y la evaluación de políticas públicas. ¿Por qué crees que triunfó la mala prensa del big data y por qué cree que perdura una sensación de desconfianza sobre esa tecnología?

Esto no le gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

—Hay un montón de elementos en este sentido. Volvamos a palabras claves: big data, inteligencia de datos e inteligencia artificial. Es un campo que está mutando muy rápido, por la gran cantidad de datos que hay no estructurados de todas las fuentes existentes, ya sea de nuestro celulares, de los satélites, de sensores, de la naturaleza, de datos humanos. Surgió como big data, pero antes era data mining y luego llega hasta inteligencia artificial, que es ahora la palabra del momento. La inteligencia artificial es algo que empezó en 1950 y que tiene toda una vía mucho más teórica, que no siempre está relacionada con los datos. La inteligencia artificial que está relacionada con los datos, es una rama que usa métodos que también se llaman de aprendizaje automático. Viniendo de la estadística, yo digo que es estadística aplicada para buscar patrones en los datos y, una vez que encontrás algunos patrones, los podés usar para entender qué está pasando o para predecir el futuro. Esto, intrínsecamente, no tiene nada de malo ni de bueno, es una herramienta. Es una maquinita de predecir. Los problemas surgen cuando se usa irresponsablemente. Yo trabajo bastante en lo que es inteligencia artificial responsable o uso responsable de datos. Al haber una cantidad masiva de datos, las grandes tecnológicas, como Facebook o Google, a las cuales les regalamos nuestros datos masivamente, encuentran que aplicando herramientas con muchísimos datos pueden predecir comportamientos y vendernos más productos. Pero cuando la inteligencia artificial se relaciona al marketing, a si elegís una película o a la próxima canción que vas a escuchar, quizá no es tan grave. Lo delicado de estos algoritmos, de estos modelos que surgen de estas maquinitas de predecir, es más peligroso en otro sentido. El problema surge cuando la inteligencia artificial se mete con la democracia, la salud o la justicia. Ahí entramos en un rojo. Una cosa es venderte auriculares y otra cosa es la decisión de todo un país. Ahí es donde se está empezando a poner la lupa, porque se requiere una regulación que no está todavía. Por eso, está muy bien que la sociedad civil empiece a preguntar de qué va todo estoy que se pongan límites a algunas situaciones. Moshe Vardi, un autor que analiza esta situación, siempre menciona esta analogía: cuando surgió el automóvil, no existían los cinturones de seguridad, no existían los semáforos, ni las señales de tránsito. Luego llegaron esas regulaciones. Ahora pasa algo similar. Necesitamos las regulaciones para la inteligencia artificial, necesitamos esos cinturones de seguridad, esas señales de tránsito. Para que no pasen cosas como lo que pasó con Cambridge Analytica, por ejemplo.

—Siendo una experta en estos temas y conociendo mucho más de lo que conoce el ciudadano común, ¿cómo es su comportamiento en redes sociales?

—Es una buena pregunta, porque es un tema complicado. Por ejemplo, yo dejé de poner fotos de mis hijos. Es algo que voy a dejar que ellos decidan que quieran hacer cuando crezcan. Aunque tampoco podés irte completamente de algunas redes, por ejemplo, de Whatsapp, porque implicaría aislarte de la mayoría de las personas. Es importante pensar que estás vendiendo tu privacidad. En verdad, ojalá la estuviéramos vendiendo, la estamos regalando. Estamos muy indefensos. Mientras la sociedad civil, no exija regulaciones, estamos completamente indefensos.

—En Desmitificando la inteligencia artificial usted trabaja sobre la idea de romper con ciertos prejuicios asociados a este tipo de tecnología. ¿Por qué cree que se crean tantos mitos en torno a la inteligencia artificial?

—Primero tenemos que definir qué es inteligente. Ni siquiera sabemos qué es inteligencia humana, así que la definición de inteligencia artificial está en duda. No la sé y no sé si la sabemos, citando la frase de nuestro querido Alberto Kornblihtt. La inteligencia artificial enseguida viene asociada a la ciencia ficción, a los robots que caminan. Hay muchos que piensan que del otro lado de la computadora hay alguien inteligente y la verdad es que no hay nadie. Son modelos matemáticos que hacen muy bien algo que se parece a una acción inteligente de un ser humano. Hay mucha gente que dice que dentro de veinte años vamos a tener inteligencia general, que es exactamente la inteligencia humana, pero tengo mis dudas. Por ejemplo, estos modelos de lenguajes que producen textos que parecen generados por una persona, lo que están haciendo es replicar palabras como un loro. Hay autoras como Emily Bender y Timnit Gebru, que los llaman logros estocásticos porque son solo repetidores. Toman pedacitos de textos los mezclan y son entrenados para ver si tiene algo de sentido, pero no entienden. Por eso aparece la idea de desmitificar, porque parece ser que si metiste inteligencia en el medio entonces estás hablando de inteligencia humana, pero no, estamos muy lejos de eso.
 

ENTREVISTA A LAURA ACION 20220804
Ación es autora de una decena de artículos, papers y ensayos que analizan el feroz impacto de la inteligencia artificial.

—En La inteligencia artificial o el desafío del siglo, un reciente ensayo de Eric Sadin, se advierte que la inteligencia artificial permitió que por primera vez en la historia de la humanidad, el ser humano le otorga a un procesador de datos la certeza de la veracidad. Es decir, lo que dice el algoritmo es veraz y no se cuestiona. ¿Cómo puede impactar este antecedente en nuestra sociedad?

También podemos citar a Bender que advierte que la inteligencia artificial puede predar la empatía humana. Hay herramientas que pueden ser útiles en un montón de contextos asistiendo al humano, pero el humano es el que sigue siendo el amo, el soberano, el que sabe de qué se está hablando realmente. Pero como las máquinas de repente ganan el ajedrez al campeón mundial o logran una mejor predicción, parece que saben más que los radiólogos porque descubren el cáncer antes, o más porque detectan que tenés Covid con un procesamiento de sonido de tu tos o porque con la entonación de tu voz pueden saber si vas a suicidarte. Paremos un poco. No tan rápido con todo eso. Porque lo cierto es que detrás de todo eso hay mucho potencial económico, muchísimo. Hay muchos algoritmos que se pueden vender para generar una gran cantidad de dinero y eso genera un gran acelere. Entonces, hay quienes nos quieren convencer de que los algoritmos son mejores que los seres humanos. Pero hay que tener mucho cuidado, porque a veces no predicen lo que parece que están prediciendo. Por ejemplo, hubo un algoritmo que parecía que predecía severidad de Covid, pero lo que hacía era predecir si el paciente estaba parado o acostado. Detrás de la superioridad algorítmica hay una cuestión cultural. A veces parece que la tecnología, la técnica, la matemática, y todas estas cosas de las que no se entiende mucho, son mejores que la medicina, las ciencias sociales, la ética y la filosofía. Yo no lo creo.

—¿Qué dice la investigación académica sobre la posibilidad de que la inteligencia artificial pueda superar a la inteligencia humana?

—Eso puede suceder pero quizás dentro de muchos, muchos, muchos años. En este momento todavía no sabemos bien cómo funciona la caja negra. Lo que está sucediendo es que cada vez tenés máquinas más poderosas, con mayor cantidad de datos haciendo cosas que no entendemos cómo se hacen. Es algo muy complejo. Es un proceso de fuerza bruta. Pero no podemos comprenderlo. Los avances más importantes se han hecho entendiendo cómo funcionan las cajas negras, o sea, el hombre metiéndose dentro de esos modelos y entendiendo qué hay detrás. Pero, por ahora, lo que estamos viendo son cosas bastante superficiales a nivel científico. Sabemos que a algo le pongo más datos, le pongo más hardware y salen modelos con millones de parámetros que no tienen mucho sentido. Michael Jordan, un computólogo y estadístico, hace una comparación y dice que si esto fuera ingeniería civil, nosotros ahora estamos buscando cómo construir puentes sin pensar en cómo hacer para que esos puentes no se caigan. Pero, otra vez, el problema es que como hay tanto potencial económico, todas esas cosas parecen mucho más mágicas de lo que son.

—En Datos digitales de salud: ¿parte de la solución y del problema? usted presenta las dudas que un profesional de la salud podría plantearse cuando algún organismo del Estado le solicita datos de sus pacientes para establecer criterios de políticas públicas. Las preguntas que se formula la doctora imaginaria en ese paper son: “¿Podrían terminar identificando a mis pacientes? ¿Podrían usarse para alguna otra finalidad?”. Son interrogantes seguramente muy reiteradas en el sistema de salud. ¿Cuáles son las respuestas?

—En esa pieza que armamos desde el proyecto ARPHAI, un programa de gestión epidemiológica basada en inteligencia artificial y ciencia de datos, terminamos con más preguntas que respuestas. Hoy tenemos historias clínicas electrónicas. Es algo cada vez son más común en Argentina, tanto en el sistema de salud privado, que lo inició hace varios años, como también en el público. Tienen toda tu información, información que es súper privada, información que, incluso, no vas compartir ni con tu propia familia. Es una fuente muy rica desde un punto de vista científico de investigación, a la que se le podría llegar a hacer muchas preguntas para mejorar, por ejemplo, la prevención de enfermedades, de epidemias, de pandemias. El proyecto ARPHAI, que tiene financiamiento internacional, surge para prevenir pandemias y epidemias usando registros clínicos electrónicos, así que se puede hacer mucho bien en base a esos datos para la salud pública. Pero a nivel individual es un dilema porque está disponible todo lo que solo le contás a tu médico en privado. Hay maneras de encontrar soluciones. Por ejemplo, con Sabrina López, que es una estudiante postdoctoral de mi grupo, y Laura Alonso Alemany, que es lingüista computacional, estamos trabajando en ver cómo desidentificar esos registros. Hay algoritmos que podrían permitirte dejar de identificar los datos o manejarlos en forma anónima. Pero ahí surge otro problema: las herramientas más avanzadas para procesar texto están diseñadas para el idioma inglés, por lo hay que volver a entrenar esos algoritmos para desidentificar los registros en español. Las preguntas que se hacen estos profesionales de salud son muy válidas. Un comienzo de respuesta es que todo el proceso de recolección y uso de datos tiene que estar a cargo de profesionales que entiendan los riesgos de compartir esos datos, esto no puede ser delegado a algoritmos automático. Porque las personas son inteligentes, los algoritmos no lo son.

ENTREVISTA A LAURA ACION 20220804
Ación es doctora en Bioestadística por la Universidad de Iowa y licenciada en Biología por la Universidad de Buenos Aires.

—En Mejorar la gestión del sistema de salud pública de Argentina para mejorar las respuestas a la pandemia usted demostró que la crisis del Covid permitió acelerar esfuerzos para promover la toma de decisiones sobre salud pública basada en evidencia científica a través del procesamiento de datos. ¿Cómo se encuentra hoy Argentina en relación a otros países en materia de big data asociada a la salud?

—En realidad, no sé si demostramos que se puede hacer eso, pero es un avance. Porque están los tiempos de la investigación y los tiempos de la gestión, que son bien distintos. Yo diría que todavía nadie lo logró, hacer gestión y política pública basada en evidencia es muy difícil. Todavía estamos haciendo pruebas piloto, hay muchas cosas que se pueden mejorar y los datos pero con cautela porque la calidad del dato que se toma en medio de una visita médica no es el mismo el dato que se toma cuidadosamente para una investigación. Cuando el médico toma un dato para salvarte la vida, como fue la crisis del Covid, no requiere el mismo nivel de detalle que cuando se registra para hacer investigación. Pero es cierto que la pandemia permitió ayudar a concientizar sobre el uso de los datos. Algo que pasó en la pandemia que me parece positivo es que tanto en la academia como en la gestión, la parte científica que manejaba datos dejó de estar en la torre de marfil para ver cómo poder dar una mano. Creo que hubo un acercamiento, no sé si eso va a perdurar o no, pero ojalá que así sea.

—Hace algunos años me llamó la atención un paper de una revista de tecnología que señalaba que a los niños se les suele regalar juguetes con dispositivos electrónicos con mayor proporción que a las niñas. El artículo concluía, en base a entrevistas a distintos profesionales que ese antecedente podría ser uno de los factores que explicaba por qué había mayor cantidad de hombres en el estudio de carreras asociadas a la tecnología, ya que se familiarizaban con este sector desde pequeños. ¿Qué significa para usted ser mujer en un ámbito en el que predominan los varones?

Es cierto lo de los juguetes, es algo que empieza así. Esas costumbres alejan de la programación a las nenas más chicas. Pero, por suerte, hay un movimiento que lo está cambiando y eso es un comienzo. Personalmente, siempre estuve en un área bio, entonces hay muchas colegas biólogas o bioestadísticas, por lo que siempre he estado en ámbitos más bien mixtos. Hubo pocas veces en que me toca ser la mujer en medio de hombres y es incómodo ser la única, pero también es incómodo ser la única latinoamericana cuando estoy en una conferencia internacional. Estar en minoría, en general, es incómodo. Por suerte, soy de esos casos de mujer que no la condicionaron tanto, tuve un padre ingeniero que siempre me puso todas las fichas, me animó a hacer todo lo que quisiera y tengo una personalidad fuerte, entonces no me pesa tanto.

—Esta sección se llama Agenda Académica porque propone brindarle a docentes e investigadores un espacio en los medios masivos de comunicación para que difundan sus trabajos. La última pregunta tiene que ver con el objeto de estudio: ¿por qué decidió dedicarse a estudiar la investigación clínica aplicada en la ciencia de datos?

—No sé si hubo una decisión consciente en algún momento, pero se fue dando así. Hay una inquietud temprana mía, de pequeñita, de hacer algo que perdure, de dejar el mundo un poco mejor que lo que lo encontré. En un momento quería ser ingeniera o médica, pero en la adolescencia llega una cierta vocación científica, descubrí esto de la biología y me pareció que la investigación y la ciencia eran el lugar para hacer ese impacto y cambiar el mundo. En realidad elegí una carrera de grado que me permitía ser científica y ser docente. De la biología, llegué a los datos de personas, haciendo investigación clínica. Pero yo necesito ver el impacto inmediatamente, entonces después de trabajar en imágenes de cerebro de personas con Alzheimer y tratar de detectar el Alzheimer descubrí que los datos, la estadística aplicada y la ciencia de datos, me permiten jugar multidisciplinariamente en muchos ámbitos. Y algo que me atrae todavía más es enseñar buenas prácticas y de ahí surge mi vocación por la docencia. La ciencia con mayor impacto social es la ciencia que está abierta a todo el mundo, es la ciencia que se puede acceder. Además, a mi me paga el sueldo los impuestos de la gente, así que me parece crucial que pueda llegar a la gente todo lo que yo hago.


Producción: Melody Blanco ([email protected])