martes 06 de diciembre de 2022
OPINIóN Columna

Data dignity: "Recuperar la dignidad integrando universos"

Quisiera explorar el concepto de data dignity y las causas que nos llevan a esta idea de recuperar nuestra dignidad como usuarios a través de un uso ético -y moral- de la meta data que generamos los humanos globalmente en nuestras actividades online.

29-12-2021 20:41

Inspirado en las reflexiones de Jaron Lanier y Fei Fei Li (*)

 

“Servicios como Google y Facebook solo existen debido a la aceptación social de una cantidad masiva de mano de obra voluntaria distribuida de millones de personas… Estamos siendo hipnotizados poco a poco por técnicos que no podemos ver, para propósitos que desconocemos. Ahora todos somos animales de laboratorio.”

                                                                                                                     Jaron Lanier

 

Para cuando decidí desarrollar esta nota, tenía –y sigo teniendo– un concepto tatuado en el cerebro, cortesía del mencionado Jaron Lanier: la data dignity. Todavía no sé como traducirlo, pero creo que no hace falta. Dicho concepto marca el rumbo y el espíritu de todo lo que sigue.

Quisiera explorar el concepto de data dignity y las causas que nos llevan a esta idea de recuperar nuestra dignidad como usuarios a través de un uso ético y moral de la meta data que generamos los humanos globalmente en nuestras actividades online.

A la caza de tus datos personales, la fiesta continúa

Según Lanier, existen dos pulsiones clave que catalizan todo el desarrollo tecnológico de Silicon Valley, y sus contrapartes en el resto del mundo como son Bangalore, Shenzhen, Londres y Buenos Aires (**), entre otros:

 

  • El fervor irracional por la Singularidad, entendida como el momento –y el producto a la vez– de la I.A. (inteligencia artificial) superando a la inteligencia humana.

 

  • La adoración casi mística que el ecosistema “techy” le tiene a los emprendedores exitosos, los “mesías” de la contemporaneidad.

 

Informatica 20211229

 

Lanier también habla de dos intenciones históricas que han dominado el marco ético y moral del ecosistema “siliconado”, intenciones que se contraponen y contradicen en su esencia:

 

  • Liberalismo “salvaje”, definido por el culto al individualismo, la imagen como formación de identidad, la trascendencia a través del éxito económico, la “validación eterna” a través de la mirada del Otro; un marco moral con buenas intenciones en su origen, pero también con gran potencial destructivo.

 

  • Igualdad de acceso, derechos y oportunidades; una especie de “hipismo ingenuo” propio de los padres de la revolución tecnológica que pretendía (y lo sigue haciendo) brindar una misma línea de largada a todas aquellas almas interesadas en aprovechar los avances y beneficios de las herramientas digitales.

 

Dichas intenciones son, por naturaleza, contradictorias, pues no se puede adorar un modelo de desarrollo privado donde prima la individualidad extrema y el éxito económico, y al mismo tiempo pretender que los productos y servicios desarrollados sean públicos y de libre acceso.

La solución que estos pioneros encontraron fue, y sigue siendo, la causa de cómo vivimos –y sufrimos- el paradigma de la vida digital, las redes sociales, las fake news y el big data: empresas mediando entre usuarios de internet a través de la publicidad. Dichas empresas siendo los verdaderos clientes de las plataformas.

La causa –y la consecuencia– de esta ecuación, la cual garantiza en simultáneo la adoración del emprendedor exitoso y el acceso (casi) libre y gratuito a todas las redes y plataformas imperantes, son los algoritmos manipuladores de la conducta.

Cómo cuidar la privacidad en tiempos de WhatsApp

Estos algoritmos, diseñados por los “técnicos que no podemos ver, para propósitos que desconocemos”, favorecen todo tipo de reacción del usuario que fomente su permanencia en dicha red o plataforma. Para eso les pagan: para encontrar maneras de mantener al usuario (no se le llama cliente) prendido a lo que sea que esté consumiendo, y así venderle a las empresas espacios de publicidad (originalmente) o directamente los datos (esto del big data…) de la audiencia, con los cuales pueden direccionar –caso por caso– los productos y servicios que cada uno se supone que quiere, o incluso necesita.

Hasta aquí todo bien. Pero se abren algunos caminos tormentosos. Por un lado, como consecuencia del diseño de algoritmos con las mencionadas características, las reacciones “negativas” son las mejor aprovechadas, porque son las más frecuentes. El drama, la violencia, la sangre, el odio, la pelea, la contradicción, la injusticia, el grito, la exageración; los algoritmos eligen estas reacciones, y por ende las potencian.

 

Informatica 20211229

 

Recordemos que esta situación no está originalmente programada por desarrolladores malignos con una agenda conspirativa para destruir a la humanidad. Se trata de trabajadores –estables o freelance– que diseñan el producto (algoritmo) más eficiente según las necesidades de sus clientes. Lo que sí está claro, y aquí voy a parafrasear una de las convicciones más actuales de Fei Fei Li: “Necesitamos más estudios complementarios en ética y moral en las academias de formadores de programadores de software.”

La vinculación –e integración- de los saberes “duros” (técnicos) con los “blandos” (relacionales), dos universos históricamente escindidos, alejados, indiferentes el uno con el otro, se vuelve imprescindible para empoderar a aquellos que, más o menos conscientes, son los alquimistas del siglo XXI, los druidas del silicio, los creadores de nuestro mundo híbrido en actual proceso de transformación exponencial.

 

 

——

(*) Jaron Lanier es un escritor, informático y compositor de música clásica estadounidense. Pionero en el campo de la realidad virtual. Lanier y Thomas G. Zimmerman dejaron Atari en 1985 para fundar VPL Research, Inc., la primera compañía que vendió gafas y guantes de realidad virtual.

(*) Fei Fei Li, quien también publica bajo el nombre de Li Fei-Fei, es profesora de ciencias de la computación en la Universidad de Stanford. Actualmente es la codirectora del Instituto de Inteligencia Artificial Centrada en la Universidad de Stanford y el Laboratorio de Aprendizaje y Visión de Stanford.

(**) Pune y Hyderabad en la India, Buenos Aires en Argentina, Metro Manila en Filipinas y Ciudad de México en México se encuentran entre los principales centros emergentes de talento en TI.

 

 

Por Nicolás Gadda Thompson.

En esta Nota