domingo 05 de abril de 2020 | Suscribite
BLOOMBERG
jueves 6 febrero, 2020

¿Y si un auto autónomo debe decidir a quién matar?

No hace mucho, los entusiastas de la tecnología nos decían que para 2020 veríamos que los carros de autónomos serían lo común, con unos 10 millones en las carreteras. Esa resultó ser una estimación exagerada. La cifra real de vehículos en prueba es miles de veces menor, y aún se manejan principalmente en condiciones controladas. Las compañías también han retrocedido en sus ambiciones y le apuntan a más apoyo del conductor en lugar de una autonomía total, justo como nos recomendaban esperar los e

Mark Buchanan

Bloomberg Default Foto: Bloomberg
jueves 6 febrero, 2020

No hace mucho, los entusiastas de la tecnología nos decían que para 2020 veríamos que los carros de autónomos serían lo común, con unos 10 millones en las carreteras. Esa resultó ser una estimación exagerada. La cifra real de vehículos en prueba es miles de veces menor, y aún se manejan principalmente en condiciones controladas. Las compañías también han retrocedido en sus ambiciones y le apuntan a más apoyo del conductor en lugar de una autonomía total, justo como nos recomendaban esperar los expertos en tecnología más sobrios.

Pero puede que un desarrollo más lento también esté bien, ya que debería ayudar a mejorar la seguridad de los vehículos y a los ingenieros a prepararse para otras amenazas, tales como que los piratas informáticos conviertan los autos en armas de destrucción masiva. Un despliegue más lento también nos da la oportunidad de formar algo de consenso social sobre la ética relacionada con los vehículos autónomos, los cuales inevitablemente se enfrentarán a decisiones con consecuencias morales, cuando tengan que escoger, por ejemplo, entre matar a los pasajeros chocando contra un árbol o girar hacia un grupo de peatones.

Los programadores tendrán que preparar a los carros para tomar esas decisiones cuando surjan ciertas condiciones y necesitarán alguna base justificable para hacerlo. Esta necesidad está creando una alianza de investigación un poco extraña, ahora que los éticos profesionales trabajan junto a los expertos en inteligencia artificial. Tenemos mucho que aprender —y muchos errores por cometer— antes de encontrar soluciones aceptables.

Hasta ahora, solo un gobierno nacional a establecido directrices reales sobre la manera en que los vehículos autónomos deben tomar decisiones. Se trata de Alemania, donde las directrices oficiales adoptan una visión fuertemente igualitaria: "En caso de situaciones accidentales inevitables, cualquier distinción basada en características personales (edad, género, constitución física o mental) está terminantemente prohibida. También se prohíbe compensar una víctima por otra. La programación general para reducir la cantidad de lesiones personales puede ser justificable".

Esta posición intenta alejarse de cualquier comparación entre personas: hombres contra mujeres, viejos contra jóvenes, cirujanos hábiles contra narcotraficantes reconocidos. Bajo esta visión, todas las personas cuentan por igual. Esto parece lo suficientemente natural, aunque esas nociones igualitarias pueden ir en contra de variaciones culturales locales en las actitudes morales, como queda claro si se analiza una muestra amplia de intuiciones morales de las personas.

Hace unos cuantos años, investigadores utilizaron un sitio web para recolectar aproximadamente 40 millones de elecciones respecto a dilemas teóricos de autonomía de conducción de personas en 223 regiones de todo el mundo y una gran variedad de culturas. Encontraron que si bien las personas generalmente dan más prioridad a las vidas humanas sobre las de animales, también tienden a preferir salvar al joven sobre el viejo. Las personas en países de América Central y del Sur tienden a priorizar las vidas de las mujeres y las de los aptos físicamente. En muchas regiones, las personas también expresaron preferencias por el alto estatus de los individuos, dando más valor a un ejecutivo que a un indigente.

Los estudios de este tipo ofrecen una guía a grandes rasgos sobre las verdaderas preferencias morales y cómo varían de un lugar a otro, e intentar alinearlas podría ser un buen inicio para los ingenieros. No obstante, las encuestas tampoco pueden ser la única guía, ya que las actitudes morales predominantes cambian con el tiempo. Históricamente, en muchos lugares, los valores explícitamente racistas o sexistas se han mantenido, a pesar de que muchas personas los consideran poco éticos.

Para muchos expertos, una mejor manera de identificar reglas confiables sería combinar el enfoque basado en encuestas con un análisis de las teorías éticas predominantes desarrolladas por filósofos morales. Se podría empezar con los puntos de vista del público, pero luego hacerlos pasar por el filtro de la teoría ética para ver si una regla es verdaderamente justificable tras un estudio concienzudo. Los expertos en ética se refieren a los puntos de vista que sobreviven a esta prueba como "preferencias blanqueadas". Por ejemplo, cualquier teoría ética rechazaría preferencias de un género sobre otro, aun cuando la encuesta encontrara dichas preferencias en algunas regiones. En cambio, preferencias como salvar a la mayor cantidad de personas pueden sobrevivir, así como la preferencia de alguien muy joven sobre alguien muy viejo.

En esta área evidentemente complicada, las políticas tendrán que guiarse por una especie de mezcla entre lo empírico y lo teórico. Cuando un carro de autónomo mate a unos niños, no será obvio cómo se tomó esa decisión. Sin embargo, las personas querrán saberlo. Más vale que las reglas vigentes sobrevivan a un escrutinio ético sistemático.


Comentarios

RECOMENDAMOS...

Periodismo puro

© Perfil.com 2006-2018 - Todos los derechos reservados

Registro de Propiedad Intelectual: Nro. 5346433 | Edición Nº 4956

Domicilio: California 2715, C1289ABI, CABA, Argentina  | Tel: (5411) 7091-4921 | (5411) 7091-4922 | Editor responsable: María José Bonacifa | E-mail: perfilcom@perfil.com | Propietario: Editorial Perfil S.A.