viernes 16 de abril del 2021
PERIODISMO PURO Entrevista
28-11-2020 23:06

Aza Raskin: "A medida que las computadoras se vuelven más inteligentes, los humanos se tornan más tontos"

El documental El dilema de las redes sociales dio cuenta de los problemas éticos más severos de la actualidad. El inventor del scroll infinito señala que muchas veces el mundo digital es como una suerte de droga a la que compara con la cocaína. Cuenta cómo actúa la inteligencia artificial no solo para vender cada vez más, sino también para sutilmente ir torciendo voluntades. Afirma que a partir de la explosión de estos espacios virtuales hay más fascismo en el mundo.

28-11-2020 23:06

—En un reportaje como este, el experto en medios y redes argentino Carlos Scolari dijo que podría compararse el virus biológico del Covid con el virus cultural en las redes, los contenidos virales. ¿Actúan igual unos y otros?

—Actúan de maneras similares. Una de las críticas que a menudo hacemos a las redes sociales es que se apoyan en un modelo de negocios basado en anuncios. Que cuando se paga por el producto, el producto es uno. Eso es correcto, pero no absolutamente. El producto de Silicon Valley es el cambio imperceptible en las creencias, los prejuicios y los comportamientos de las personas. Lo que hace que hagan clic en algún botón, en una publicidad. Para que el negocio de Silicon Valley funcione se necesita la viralidad. Si se retrocede el reloj y se mira antes de 2012, de 2008, antes de que las redes sociales despegaran realmente, la viralidad no formaba parte del modelo de negocios. Pero cuando las empresas necesitan obtener financiación y demostrar un crecimiento masivo de usuarios creando las condiciones en las que las ideas, las ideologías, los comportamientos pueden extenderse como la pólvora, eso es lo que vemos. Hemos tomado los motores del capitalismo y nos los hemos apuntado. Nos está vaciando de esos recursos finitos que son nuestra atención y nuestro tiempo y nuestro comportamiento. Así llegamos a una crisis del clima social y un cambio de clima social en el que la conspiración se propaga como la pólvora, donde tenemos los tornados de desinformación y los huracanes de desinformación y polarización. Creo que ambas son metáforas increíbles para entender cómo cambiaron nuestro mundo y nuestra ecología de la información. Hay un estudio del MIT (Massachusetts Institute of Technology) que mostró que las noticias falsas se difunden seis veces más rápido que las reales en las redes sociales. Tiene sentido, porque las cosas que verdaderamente captan nuestra atención, las que hacen que al despertar hagas clic, son las que nos enojan, que nos enfurecen o las que parecen demasiado buenas para ser verdad. Se sabe que solo con agregar una especie de palabra con carga moralmente poderosa en un tuit aumenta su participación en un 20%. Por cada dólar que ingresa en las redes se obtiene polarización.

—Usted dijo que “más del 52% de los niños en los EE.UU., cuando se les pregunta qué quieren ser cuando sean grandes, dicen, no astronautas, ni científicos, sino influencers de YouTube. Ha cambiado quién representa nuestra cultura”. ¿En qué momento se produjo esa transformación cultural?

—Es un punto muy profundo. Cuando miramos una pantalla pensamos que estamos frente a un espejo. Las empresas de tecnología nos dicen que nos miremos a nosotros mismos. Y no es así. Nos miramos a nosotros mismos a través de un espejo distorsionado, que nos muestra versiones de nosotros mismos donde somos juzgados. Los adolescentes y nuestros hijos son juzgados en función de la cantidad de likes que reciben. Es como si regresáramos de nuevo a la escuela y la propia popularidad se demostrara todos los días. Eso son los filtros de Snapchat y los filtros de Instagram. Estás viviendo una vida que en realidad no es tuya. Los valores de Silicon Valley que ponemos en nuestros productos comienzan a controlar la cultura. Antes querían ser bomberos, científicos y tener profesiones socialmente prosociales; ahora todo se trata de atención e influencia. 

—Se habla de un nuevo entorno de lo humano: como antes había naturaleza, luego ciudades, ahora tenemos redes. ¿Es así? 

—Sí, creo que es una muy buena forma de entenderlo. Es muy fácil pensar en las redes sociales como algo ahí fuera, como eso que se hace con el teléfono o en la computadora. Eso minimiza su impacto. Pero son los hábitats digitales en los que ahora con el Covid-19 pasamos más de la mitad de nuestras vidas despiertos. Afectan profundamente las consecuencias del mundo real. Incluso si no estás en las redes sociales, vivís en un mundo que sí lo hace. Facebook ahora tiene más usuarios, más ciudadanos digitales que China e India juntas. Antes había que tener una conversación cara a cara para entender a alguien. Era esencial la empatía. Ahora está todo comprimido en algo diminuto como un tuit. Y eso hace que los bots se hagan pasar por humanos muy fácilmente, porque el contexto hizo a los humanos más simples, más pequeños. Y a medida que las computadoras se vuelven más inteligentes, los seres humanos son más tontos. Nos hacen más predecibles a todos al servicio de su modelo de negocios. 

Aza Raskin, en la entrevista con Jorge Fontevecchia.
Diseño. “Los tecnólogos y diseñadores tienen una suerte de asimetría de poder porque comprenden cómo funciona la mente.” (Foto: Néstor Grassi)

—Usted dijo: “Llamamos a estas cosas redes sociales, sitios sociales o simplemente aplicaciones (TikTok, Reddit, Facebook) y eso en realidad oculta la verdadera naturaleza de lo que son. Estos son inmensos hábitats digitales en los que, después de Covid, vivimos más de la mitad de nuestras vidas de vigilia”. ¿Hay algo de la distopía de un mundo de pantallas y aplicaciones que no se cumplió? 

—Hay que comprender que el contexto en el que se ve algo controla esa visión. Hay una ilusión óptica muy famosa en la que hay un objeto en un tablero de ajedrez que proyecta una sombra y hay diferentes cuadrados y se formula la pregunta: Cuadrado A o Cuadrado B. ¿Cuál es más oscuro? Y por supuesto la respuesta es que son iguales, pero nuestro sistema visual siempre informará que uno es más claro que el otro. El contexto da forma a cómo vemos el mundo. Lo que hacen las redes sociales es dar forma a lo que vemos, desde quién lo ve y cuándo. El propio Facebook en 2014 realizó un experimento de contagio socioemocional masivo en el que demostró que con solo cambiar el tipo de publicación que se ve, si más enojada o alegre, se podría afectar el estado de ánimo y lo que se publicaría. Es algo que podrían hacer sin que nadie se diera cuenta. Los usuarios no tenían ni idea. Necesitamos redes sociales en las que sus estructuras de gobierno miren a las comunidades que tienen.

—“Las metáforas son mapas que preservan las relaciones” en una frase suya. ¿Cómo sería el mapa para entender las redes sociales? ¿Cuál sería la metáfora? 

—Otra gran pregunta. Un tipo de metáfora para entender las redes sociales es que son como el terreno en el que nos encontramos. Hacen que algunas cosas sean más fáciles y otras más difíciles. Entonces, ¿qué tipo de cosas facilitan? Se puede trazar una especie de línea. De un lado hay una razón científica tranquila y del otro hay una ciudad loca, con conspiración, ira y odio. ¿Qué consigue más compromiso y toma más tiempo? Obviamente, las cosas que activan la atención. Eso comienza a inclinar el campo de juego en una dirección. En el mundo de hoy la conspiración se extiende como un incendio forestal. El odio se extiende como un incendio forestal. Es como si las redes sociales nos filtraran pequeñas microrrealidades y luego las aplastaran juntas contra nuestras pantallas. Es porque estamos más de acuerdo con quienes se nos parecen más y uno se enoja y se relaciona con personas que piensan de forma opuesta. Así se inclina el piso de la sociedad humana. 

—Usted es hijo de alguien que trabajó en Silicon Valley. Su padre, Jef, es el creador del proyecto Macintosh para Apple. En un reportaje como este Jaron Lanier dijo que hubo muchos jóvenes de la primera generación que comenzaron con un espíritu idealista y, de golpe, se encontraron con un negocio que los superó. ¿Cómo fue la experiencia de su padre?

—Para mi padre, la tecnología siempre consistió en tomar las cosas más hermosas y extenderlas en su creatividad. Un pincel es una forma de tecnología, al igual que un violonchelo o un piano. El lenguaje es un tipo de tecnología. Jef quería componer música. Por eso luchó mucho al diseñar el Macintosh original para poder tener pantallas que pudieran mostrar cualquier tipo de imagen, frente a la Lisa que es en lo que trabajaba Steve Jobs, que solo mostraría personajes y no podría dibujar. La visión de Jef para las computadoras era que lograran ser más humanas. ¿Qué es una computadora humana? Una que responde a las necesidades y tiene en cuenta sus debilidades. Considerar la ergonomía. En la época de Jef, uno caminaba hacia las computadoras y las usaba. Si su forma era extraña y no la podías usar, se producía una especie de dolor de espalda cognitivo. Hoy la tecnología es persuasiva. Es lo primero que miramos cuando nos despertamos y lo último que miramos antes de irnos a dormir. Está disponible para nosotros las 24 horas, los siete días de la semana. La tecnología se nos impone. 

—¿Le pasó a usted algo similar con su creación, el “scroll” infinito? Usted lo comparó con la cocaína. ¿Nos drogan de alguna manera?

—Los tecnólogos y diseñadores tienen una suerte de asimetría de poder porque comprenden cómo funciona la mente. Luego usan eso en contra del usuario. En el “scrolling” infinito la idea es que, a medida que scrolleás, más cosas siguen cargándose desde la parte inferior. Como interfaz es bastante buena. Tiene sentido. Scrollear significa “no vi lo que estoy buscando, así que mostrame más”. Lo que salió mal es que pasó de ser algo que sirve, una herramienta como un martillo o una sierra, a ser algo con un motivo oculto. Cuando se bebe una copa de vino, el cerebro se despierta y pide un poco más. Si esa copa se rellena continuamente desde el fondo sin que sepas cómo, beberías mucho más vino. Es lo que hace el “scrolling” infinito. El objetivo es conseguir que la gente scrollee más, ponerlos en ese estado zombi en el que uno se despierta un par de horas más tarde y se pregunta qué sucedió. A medida que el poder de dominarnos aumenta, la sabiduría y la responsabilidad de aquellos que crean tecnología también debe aumentar.

—También dijo que “detrás de cada pantalla de tu teléfono generalmente hay mil ingenieros que han trabajado en esta cosa para intentar que sea lo más adictiva posible”. Usted participó de esos equipos. ¿Cómo trabajan? 

—Facebook fue pionero en el uso de equipos de crecimiento o de hackers de crecimiento. Es un tipo de profesional que no existía antes de 2010, incluso antes de 2013. El objetivo de esos equipos es encontrar formas virales e inteligentes de hackear tu propia psicología y usarla en tu contra. Un ejemplo puede verse en Facebook. Hay una función en la que, si te etiquetan en una foto, recibís un e-mail en el que te lo notifican. Se debe hacer clic aquí para verlo. Eso no sucede por accidente, sino por diseño. Hacen un hackeo narcisista. Quieren asegurarse de que se vean bien en esa foto. Cuando Facebook encontró esa función, la llevó a una suerte de paroxismo. Todo ese diseño persuasivo nace de la psicología cognitiva.

“Cuando miramos una pantalla pensamos que estamos frente a un espejo.”

—¿Qué diferencia cognitiva y de atención tiene leer en “scroll” infinito o la página de un libro?

—Una de las cosas buenas de las páginas de un libro es que son físicos. Se puede cerrar los ojos y recordar dónde estaba esa cosa que viste. También tiene un final reconocible. No hay un conjunto infinito de distracciones cuando estás llegando al final. Cuando se lee una pantalla hay muchos mensajes que dicen que lo que viene será aún más interesante. En una pantalla hay un conjunto infinito de cosas para distraernos disponibles muy cerca del pulgar. Significa que estás minando la capacidad del cerebro para tener pensamientos largos.

—Dijo que si hubiera más fricción podríamos darle al “cerebro humano la oportunidad de alcanzar este impulso”. ¿Se puede hacer eso sin que deje de ser amigable el entorno?

—Sí. Twitter aceptó algunos de estos consejos y cambiaron algunas cosas para que no se pueda leer un tuit directamente. Avisa cuando uno retuitea artículos sin haberlos leído previamente. Del mismo modo, WhatsApp limitó la cantidad de saltos que puede dar un mensaje a cinco para limitar el crecimiento viral. El mundo real siempre tuvo siempre una especie de fricción. Hay un número limitado de personas con las que puede hablar en su entorno. Se puede gritar, pero llega hasta determinado punto. Y eso significa que hay una especie de localidad, hay una forma en que nuestro entorno coincide con nuestra fisiología y nuestro cerebro cuando tomamos a cada ser humano y le damos un micrófono para que pueda hablar con todos los demás seres humanos a la vez. Es como tomar un cerebro y conectarlo con todas las demás neuronas. El resultado será un conjunto de descargas epilépticas a gran escala. Es exactamente como afecta a nuestras sociedades. No fuimos evolucionando como seres humanos para tener la capacidad de tener nuestro propio programa, nuestro propio tipo de espectáculo individual de Truman Show transmitido a cientos de miles, o millones, de otras personas en todo momento.

—Su padre tenía una “filosofía humana” como base de su trabajo. En 2020 ¿cuánto hay de filosofía y cuánto de humano en el mundo digital?

—Vimos una falta de voluntad de las empresas de Silicon Valley para defender sus valores. Cuando Google comenzó, cuando ejecutaron el page rank, su tipo de algoritmo innovador, que le dio ventaja. Si simplemente lo ejecutaban ingenuamente en la web, lo que siempre obtenía la mayor cantidad de visitas era la pornografía. Entonces, lo que decidieron hacer fue comenzar a indexar desde el MIT, desde Stanford, desde la Universidad de Chicago, desde escuelas y lugares que se sabía que tenían conocimientos buenos y válidos. A medida que las empresas fueron creciendo, dejaron de considerar valores. Especialmente, quiénes eran ellos para decidir. Sabían que la gente no los eligió para que sean árbitros de la verdad. Tomaron la decisión de ser amorales. Su camino es buscar lo que funciona en lugar de preguntarse qué es lo correcto. Un clic no es un buen indicador de la verdad. Reemplazan la verdad por el compromiso o la popularidad. Cuando uno maneja en una ruta y observa un accidente automovilístico, los ojos mirarán naturalmente hacia donde ocurrió. Es como si hubiera un ojito observando que dice: si te gustan los accidentes, te mostraremos más. El resultado es que de a poco se empieza a mirar solo accidentes automovilísticos.

“Se necesitan nuevos derechos humanos adaptados al siglo XXI.” 

—Escribió sobre su padre que “lo que hace único a Jef es su incapacidad para aceptar el statu quo cuando algo no tiene sentido para él, ya sea en informática, matemáticas o musicología”.¿Sirve saber de música, de arte o incluso de psicoanálisis para entender cómo funcionan las redes?

—Absolutamente. Lo que estamos perdiendo ahora son las partes inefables de lo que es ser humano. Cuando se optimizan las métricas, las conversiones, el tiempo en el sitio, el compromiso, los corazones y los me gusta, se reduce la experiencia de un ser humano a un número frágil de popularidad. Si queremos diseñar sistemas que realmente funcionen con seres humanos, tenemos que mirarnos detenidamente en un espejo y descubrir quiénes somos, cuáles son nuestros lados brillantes y cuáles nuestros lados oscuros. Ver ambos en una vez y diseñar para ellos. Para hacer eso se requiere arte y música. Las cosas más interesantes de la vida siempre existen en las intersecciones. De hecho, la palabra “interesante” tiene la misma raíz que “intersección”. Es en los bordes donde suceden las cosas más interesantes.

“Los adolescentes y nuestros hijos son juzgados en función de la cantidad de likes que reciben.”

—¿Qué diferencia encuentra entre su mirada del mundo digital y la de su padre?

—Creo que cuando Jef pensaba en el Macintosh, lo pensaba principalmente como una persona relacionada con su computadora. Y hoy tenemos que pasar de una interacción humana (usa el término humane de manera igual) o humana con la computadora, al diseño de interacción de la sociedad de la tecnología. Ya no es suficiente pensar cómo es la relación que tenemos con nuestras computadoras, sino cómo nos relacionamos en nuestras sociedades en una era en la que la tecnología puede comenzar a realizar ingeniería inversa en nosotros como seres humanos. La tecnología sabe más sobre nosotros que nosotros mismos. El simple seguimiento ocular, por ejemplo, como el punto en el que miran los ojos en una pantalla, puede enseñarle cuál es la orientación sexual de una persona, ya sea heterosexual o gay, antes de que la persona misma lo sepa, puede decirle qué droga está tomando, si es MDMA o alcohol, o si tiene Parkinson, qué estado de enfermedad tiene, puede decir si está deprimido, cuántos años tiene, cuánto duerme, si está pensando o no, cuál es su carga cognitiva. La cantidad de información que transmitimos en un mundo impulsado por una IA cada vez mayor está mucho más allá de lo que la mayoría de la gente piensa. Y creo que ese tipo de comprensión del mundo es una extensión de lo que estaba pensando mi padre. Entonces, la tecnología no estaba en ese lugar, tan integrada en nuestras vidas.

—¿Tiene hijos? ¿Cómo los educa para la tecnología?

—Aún no. Creo que una de las partes más importantes será una especie de alfabetización de los mecanismos de diseño por los que están siendo manipulados. Es como con los cigarrillos. ¿Cómo evitamos que sean parte de nuestra base cultural? No bastó con decirles que eran malos. Eso no tuvo demasiado efecto. La clave estuvo en decirle a la gente que las grandes compañías tabacaleras le estaban mintiendo y manipulando. Y cuando se observa cómo manipulan, los límites de la propia mente y los sesgos cognitivos y se entiende cómo piratearon el consenso, ahí aparecen anticuerpos. Es la opción a aceptar las cosas ingenuamente.

“Aun si no se está en las redes sociales, se está en un mundo que sí lo hace.”

—¿Cómo describiría el rol en la sociedad de personas como Steve Jobs y Bill Gates? ¿Imagina a Gates como un político en el futuro?

—Creo que personas como Jobs y Gates han tenido una visión increíble de cómo podría ser el mundo. El próximo paso es comprender la responsabilidad que la tecnología con la sociedad. Hace poco compré un automóvil, justo antes de la pandemia, y fue el primer automóvil que conduje que tenía un modo de conducción de piloto automático. Cuando dejo que el automóvil se desplace, chocará contra un borde de la ruta antes de que se agriete y vuelva a girar, pero sobregira. Ahí me cabe a mí, como humano, tomar el control del volante. Hay un momento en el que somos responsables nosotros por lo que hacemos. Los Bill Gates, Steve Jobs, y Mark Zuckerberg no deberían convertirse en políticos, porque ya acumularon demasiado poder asimétrico sobre la sociedad. Si Facebook quisiera cambiar una elección podría hacerlo, porque controla la información que tiene la gran mayoría de los ciudadanos estadounidenses. Sí me gustaría ver esas tecnologías muy inteligentes emparejadas con artistas muy inteligentes, con políticos muy inteligentes, para descubrir cuáles son las formas de gobernanza que pueden funcionar en un entorno de información del siglo XXI.

Aza Raskin, en la entrevista con Jorge Fontevecchia.

—¿Cómo definiría el trabajo de Humanetech? ¿Es una tarea política? ¿Cómo se financia y a quién provee con su trabajo? 

—Cada acto de código que alcanza escala es inherentemente político. Y, de hecho, el código es más fuerte que la ley, porque la ley te dice lo que debes y no debes hacer. Pero no te obliga a hacer esas cosas, excepto como castigo. El código hace que algunas cosas sean imposibles. Si no está codificado para hacerse, simplemente no puede hacerse en estas plataformas. Por tanto, el código es más fuerte que la ley y la codificación es intrínsecamente política. Y eso significa que cualquiera que codifique a escala debe tener en cuenta todas las comunidades a las que afecta. El 70% de los usuarios de Facebook no está en los EE.UU. 

—Otra cita textual es la siguiente: “La pregunta que todos deberían hacerse es: ‘¿cuánto pagué recientemente por Facebook?’. ‘Claro, no he pagado nada’. ¿Por qué es eso? Entonces, la primera respuesta que obtendrán es, ‘bueno, están tratando de venderte anuncios. Están intentando que compres algo’. Y luego, la primera reacción es ‘¡Vaya, bueno, me gustan esos anuncios!’. Y así se pierde completamente el punto. Están recolectando cantidades masivas de datos excedentes de comportamiento para hacer modelos tuyos, como un muñeco vudú, que pueden pinchar y pinchar para ver cómo respondés, para que tomes acciones específicas”. ¿Sobre qué afecta más esta acción: la política, el consumo, los afectos?

—Esa es la gran pregunta, porque realmente parece ser el daño que causa usar estos productos. Si no pagamos nada por Facebook es que nos están monetizando, “no has pagado nada y eso significa que te están monetizando”. Es como si estuvieran recopilando todos sus flujos de clics y clics en uñas y recortes y lo usaran para hacer un pequeño muñeco vudú que se parece cada vez más a usted. Y es capaz de predecir lo que usted va a hacer. Garry Kasparov es un campeón de ajedrez. Gana porque puede predecir qué va a hacer su contrincante antes que él mismo. Las supercomputadoras que apuntan a nuestras mentes pueden ayudar a modelar las cosas en las que haremos clic. Eso significa que efectivamente estamos perdiendo el control. Es como los magos que nos dicen que elijamos una carta cualquiera. Creemos que estamos eligiendo una carta, que tenemos elección, pero en realidad no es así. Facebook es capaz de predecir las cosas en las que vamos a hacer clic. Es ese muñeco vudú que está usando todo ese excedente de comportamiento de información que se le da a la computadora, de dejar que el teléfono informe la ubicación que proviene de alguna otra aplicación que luego Facebook compra y reintegra en sus propios datos. El crecimiento de grupos extremistas en Estados Unidos debería asustarnos a todos.

“La tecnología debe ser ergonómica y comprender cómo se mueve la mente de las personas.”

—¿Se les puede hacer “trampa” a los algoritmos? Decir cosas que no pensamos, mostrar fotos de otro tiempo de nuestra vida. ¿Se podrá escapar de ese panóptico que son las redes?

—Mi amiga Renee DiResta, que es investigadora en información o desinformación, tiene una hermosa frase para esto: “Si podés hacer tendencia, construiste una realidad”. En psicología cognitiva, el término es “verdad ilusoria”. Cuantas más veces se repita algo, incluso si es falso, es más probable que la gente piense que es cierto. Algunos algoritmos están absolutamente en juego con las redes de bots, con publicaciones inteligentemente cronometradas, de contenido incendiario. Si puedes hacer una tendencia, la haces realidad. ¿Podemos escapar? Hay una buena higiene posible. Se pueden usar bloqueadores de anuncios, rechazar activar la ubicación. Pero sucede como con una pandemia. Hay acciones de higiene personal para protegernos. Se puede usar una máscara, lavarse las manos, no salir. Aun así es posible que la persona se enferme. Se precisan regulaciones y protecciones mucho más estrictas para defendernos porque la acción individual no es suficiente. ¿Y nuestra tecnología se volverá más inteligente? ¿Habrá más sensores en el mundo? Absolutamente. Aumentando la tasa de inteligencia artificial. Como seres humanos, nunca hemos enfrentado a un panóptico tan perfecto. Se necesitan nuevos derechos humanos adaptados al siglo XXI.

“Algunos algoritmos están absolutamente en juego con las redes de bots.”

—¿Borrar nuestras redes puede ser el camino? ¿Se puede vivir sin chatear, sin ver Google?

—Es posible, si tenemos un cálculo global sobre lo que la tecnología nos hace y cómo nos gustaría vivir. Con el auge de la tecnología, como las falsificaciones profundas y la generación de texto IA, ya no podemos saber si un video es real o falso, si una persona es real o falsa. Existe una tecnología llamada “transferencia de estilo”. Se apunta a una computadora de IA a una imagen y aprende el estilo de esa imagen. Nos dirigimos a un valle sintético donde no sabemos qué es real y qué no es real. Será como una bomba nuclear para internet donde dejamos de confiar en todo lo que vemos a menos que provenga de una fuente que conocemos. Es a la vez aterrador y también ofrece una especie de reinicio. Quizás nos puede dar un poco de esperanza.

—Usted aconsejó a los usuarios de las redes de la siguiente manera: “Algunos consejos: configure su teléfono en escala de grises. Desactive todas las notificaciones de todo lo que no sea un humano. Siempre tenga presente: si siente que algo está afectando sus emociones, tal vez lo esté”. ¿Alcanza con hacer eso?

—No, no basta. Pero es un buen comienzo. Es un poco como con el medio ambiente. Todos deberíamos volar menos, deberíamos usar menos agua, no usar plástico, usar bicicletas. Son pasos importantes. Pero incluso si todos hiciéramos eso, no sería suficiente. La acción individual no es suficiente. Por eso es importante tener una buena relación con la tecnología. No cargo mi teléfono todo el tiempo para no tener que usar mi cerebro en Twitter. Me gusta mantener mi teléfono en escala de grises porque lo hace un poco menos seductor. Pero no es suficiente porque mi teléfono todavía informa dónde estoy, las torres de telefonía celular y los proveedores de teléfonos venden los datos para agregar destinatarios. 

Aza Raskin, en la entrevista con Jorge Fontevecchia.
Moral en Silicon Valley. “Tomaron una decisión que fue no tener valores, ser amorales”. (Foto: Néstor Grassi)

—¿Son más peligrosos los teléfonos inteligentes que las computadoras?

—Absolutamente, las computadoras tenían un área de superficie más pequeña en nuestras vidas. No se puede revisar la computadora mientras uno va al baño temprano a la mañana. Nuestros teléfonos viven en nuestros bolsillos. Es la diferencia entre tener una golosina en el escritorio de casa y tenerla en el bolsillo todo el tiempo. Si se tuvieran golosinas en el bolsillo todo el tiempo y con suministro infinito, todos estaríamos mucho más gordos. Eso es tener nuestros teléfonos con nosotros todo el tiempo. Se convierten en binoculares y lentes con los que vemos el mundo. Tienen un impacto mucho mayor. Desde que salió el iPhone y surgió el auge de las redes sociales hubo un cambio masivo en las democracias en todo el mundo, desde Filipinas a los Estados Unidos y Hungría. Un auge del autoritarismo y del fascismo. Se crean las condiciones para el totalitarismo. El totalitarismo es la capacidad de proyectar en la mente de las personas un conjunto específico de creencias, una cosmovisión específica. Los teléfonos celulares transmiten un mundo de creencias.

—En la página de Humanetech señalan que trabajan en una intersección entre “la naturaleza humana, la tecnología y la transformación de sistemas; nuestro objetivo es cambiar la mentalidad a partir de la cual se construyen los sistemas de tecnología persuasiva y usar ese proceso para respaldar cambios paralelos cruciales en nuestros sistemas económicos y sociales más amplios”. ¿Qué descubrieron hasta ahora en ese punto central? ¿Nuevos programas, nuevos algoritmos?

—Edward Osborne Wilson tiene una gran descripción de dónde estamos como humanidad, y es que tenemos “emociones paleolíticas con instituciones medievales y tecnología como Dios”. Lanzamos junto con Jeff Orlowski la película El dilema de las redes sociales, que realmente describe cómo las personas que construyeron la tecnología, desde el tipo que hizo el modelo de monetización de Facebook hasta Justin Rosenstein, quien es uno de los inventores del botón “Me gusta” en Facebook, cómo veían los modelos de negocios de estas empresas que llevaban al menos a EE.UU. directamente a la guerra civil, creando múltiples microrrealidades, divorciadas de la actualidad, que nos impiden tener un sentido de realidad compartida. Si no pueden ponerse de acuerdo sobre un conjunto de hechos, no pueden tener una democracia. En el primer mes luego de estrenada El dilema de las redes sociales fue vista en 38 millones de hogares. Casi 50 millones de personas la vieron al mismo tiempo. Y eso significa que hay un proceso que realmente está comenzando a acelerarse a todo vapor. Y es esa presión pública la que necesitamos para hacer un cambio masivo. Eso es lo que me emociona. Tristan Harris y yo somos cofundadores del Center for Human Technology y del podcast Your Undivided Attention, donde entrevistamos a personas en esas tres intersecciones, desde psicólogos hasta investigadores, a los expertos en seguridad nacional, para tener una idea real de lo que es esa visión del mundo.

“Es en los bordes donde suceden las cosas más interesantes.”

—Jeff Orlowski, el director de “El dilema de las redes sociales”, dijo que “hay algo mal en la manera en la que la tecnología fue diseñada y la forma en la que opera”. ¿Hay vuelta atrás? 

—Tiene que haberla. No es sostenible continuar así. Será una pelea difícil porque los poderes atrincherados son muy fuertes. Cuantas más personas hay en una red social, más valiosa se vuelve. Es común ver gente que sale de Facebook y de Twitter, pero que vuelve al tiempo. El espacio donde estamos es una infraestructura contaminada. Debemos cambiar, y, de hecho, están surgiendo una serie de nuevas empresas de tecnología que están tratando de resolver esto.

—¿Hay alguna manera de moverse en la red que sea segura? ¿Hay algo que podamos hacer para que los algoritmos no nos dominen?

—La comunicación uno a uno es genial. Cuanto más podamos usar FaceTime o Zoom o la comunicación cara a cara, menos podrán hacer los algoritmos. Donde se debe tener cuidado es en los sistemas de recomendación, las fuentes de noticias, las líneas de tiempo, cualquier cosa en la que el algoritmo no esté decidiendo qué ver, generalmente será más segura.

—Un periodista español, Josep María Ganyet, escribió en “La Vanguardia” un artículo crítico sobre el documental que decía: “La ironía es que el documental nos llega sugerido por el algoritmo de Netflix y pide un ‘Me gusta’”. ¿Usa las redes para difundir su mensaje? ¿Hay alguna opción?

—Es exactamente el problema, que no hay otras opciones. Vivimos en una economía de la atención y estas plataformas, Facebook, Netflix, YouTube, Twitter, tienen su monopolio. Aun cuando se está completamente consciente de los efectos negativos de las plataformas se está obligado a jugar en ellas. Y es por eso que necesitamos regulaciones.

“Casi todos los idiomas humanos comparten una especie de forma universal.”

—Una pregunta filosófica: ¿qué es mejor, regular o educar?

—La educación es increíblemente importante. Cuanto más comprendamos la forma en que somos manipulados, más inmunes seremos a ella. Estonia es famosa por tener una buena educación sobre la desinformación. Eso mantuvo a su población mucho más inmune a las técnicas rusas de desinformación y propaganda. Pero hay mucho que no podemos hacer como individuos. Solo hay una cantidad limitada de energía que podemos dedicar a verificar todas las fuentes de donde provienen nuestras noticias. Necesitamos comprender cuál es el riesgo de introducir cosas como los conceptos básicos gratuitos de Facebook, o cuál es el riesgo de poner “Me gusta”.

—¿Qué tenemos para aprender los seres humanos sobre el lenguaje de los animales? ¿Hay algo así como un lenguaje universal? ¿La inteligencia artificial es la música de todas esas letras?

—El Proyecto de Especies de la Tierra es uno de los hallazgos más hermosos de los últimos tres años. Fue un descubrimiento de 2017, que muestra que hay una especie de forma que es un lenguaje imaginado como una galaxia o una nube. Cada punto es una palabra, que significa que cosas similares están cerca unas de otras. Así se puede representar la forma en que se relacionan entre sí geométricamente, y lo que fue tan sorprendente es que si se construye esta forma para un idioma como el alemán y otro idioma como el japonés, se podría rotar una forma encima de la otra. Distintos idiomas encajan en un solo espacio, y también es cierto para el finlandés, el español, el portugués, el esperanto y el turco. Casi todos los idiomas humanos comparten una especie de forma universal. Y eso es cierto, aunque tenemos diferentes culturas, diferentes historias y diferentes significados para las palabras y los conceptos, todavía existe una universalidad en la forma en que nos comunicamos y vemos el mundo que es independiente de nuestra cultura y nuestra historia. Eso debería traernos belleza y esperanza porque en cierto sentido somos más similares de lo que pensamos. La siguiente pregunta es, ¿pueden estos tipos de tecnología, que se denominan traducción automática no supervisada, usarse para mapear la estructura de la comunicación animal? Y si podemos, ¿comparte algo con la comunicación humana? Y en realidad no puedo decidir cuál será más fascinante: si hay una forma que representa la comunicación animal, como delfines o ballenas jorobadas o monos gelada u orangutanes, y encaja en cualquier parte de la forma de significado humano. Así comienza a inscribirse una piedra de Rosetta (N. de la R.: el fragmento que permitió descifrar los jeroglíficos) y tal vez podamos comenzar a traducir algo de lo que quieren decir cuando hablan. Hay una gran parte de lo que hablan que tiene una estructura que no puede traducirse directamente, que no se superpone con los humanos. Y los animales tienen muchas partes similares a la experiencia humana. 

—¿El mundo resultará peor o mejor luego de la pandemia por el Covid-19?

—Había esperanza, al principio, en que el coronavirus podría unir a la humanidad en un universal compartido, que sería una especie de luz ultravioleta que iluminaría las mayores desigualdades en nuestras sociedades y que nos daría la conciencia y la oportunidad de solucionarlas. No hemos aprovechado esa oportunidad. Al menos muchos gobiernos. Y vamos a tener que luchar para asegurarnos de que nuestras libertades civiles no se erosionen en el impulso hacia una especie de teatro de la salud pública. Al salir del coronavirus tendremos aspectos positivos, como que la gente viajará menos. Y eso es algo grandioso para el medio ambiente. Creo que todos hemos sido probados para decir: “¿Podemos vivir bien con menos?”. Y creo que eso también es una gran cosa para el medio ambiente. Y ahora que todos hemos estado atrapados en casa, sentados en nuestras sillas de computadora y nuestro software durante todo el día, la necesidad de tecnología que se adapte a nosotros como seres humanos es aún más evidente. Y creo que va a haber un auge increíble de innovación y creatividad como resultado del coronavirus.

 

Producción: Pablo Helman, Debora Waizbrot y Adriana Lobalzo