Los autos robots dan lugar a conductores irritantes. En relación con los conductores humanos, los vehículos sin conductor que ahora se someten a pruebas en la vía pública son demasiado cautelosos, enloquecedoramente lentos y propensos a paradas abruptas o detenciones extrañas causadas por ciclistas, corredores, cruces de peatones o cualquier otra cosa que no se ajuste a los confines de los binarios cerebros del robot.
Las empresas de conducción autónoma están muy conscientes del problema, pero no hay mucho que puedan hacer en este momento. Ajustar los algoritmos para producir un viaje más tranquilo podría comprometer la seguridad, socavando una de las justificaciones más pregonadas para la tecnología.
De acuerdo con investigadores federales, fue precisamente este tipo de ajuste para minimizar el frenado excesivo lo que llevó a un accidente fatal que involucró a un vehículo autónomo de Uber Technologies en marzo. La compañía aún no reanudó las pruebas públicas de autos de conducción autónoma desde que cerró sus operaciones en Arizona luego del accidente.
Si los autos sin conductor no pueden programarse de manera segura para imitar la toma de riesgos de los conductores humanos, tal vez se les pueda enseñar a comprender mejor cómo actúan los humanos. Ese es el objetivo de Perceptive Automata, una startup con sede en Boston que aplica técnicas de investigación neurocientífica y psicológica para brindar a los vehículos automatizados una intuición más humana en la ruta: ¿Se le puede enseñar a un software a anticipar el comportamiento humano?
"Pensamos en lo que esa otra persona está haciendo o tiene la intención de hacer", dijo Ann Cheng, gerenta senior de inversiones de Hyundai Cradle, la rama de riesgo de la automotriz surcoreana y una de los inversionistas que ayudó a Perceptive Automata a recaudar US$16 millones. Toyota Motor también está respaldando a la startup de dos años de existencia fundada por investigadores y profesores de la Universidad de Harvard y del Instituto de Tecnología de Massachusetts.
"Vemos a muchas compañías de inteligencia artificial que trabajan en problemas más clásicos, como la detección de objetos [o] clasificación de objetos", dijo Cheng. "Perceptive está tratando de ir un paso más allá: lo que ya hacemos de manera intuitiva". Este aspecto predictivo de la tecnología de autoconducción "fue mal entendido o subestimado por completo" en las primeras etapas de desarrollo de la conducción autónoma, dijo Jim Adler, director gerente de Toyota AI Ventures.
Dado que Waymo, de Alphabet, planea lanzar a fines de este año un servicio de taxis de conducción autónoma para clientes de pago en el área de Phoenix, y que la filial de vehículos sin conductor de General Motor implementará un negocio de transporte en 2019, las deficiencias de los coches robots que interactúan con humanos están bajo un mayor escrutinio. Algunos expertos han abogado por campañas de educación para capacitar a los peatones para que sean más conscientes de los vehículos autónomos.
Startups y fabricantes de automóviles en todo el mundo están ocupados probando pantallas de visualización externas para telegrafiar la intención de un automóvil robótico a los transeúntes. Pero nadie cree que será suficiente para que los vehículos autónomos se muevan a la perfección entre los conductores humanos. Para ello, el auto necesita poder descifrar la intención leyendo el lenguaje corporal y entendiendo las normas sociales. Perceptive Automata está tratando de enseñar a las máquinas a predecir el comportamiento humano modelando cómo lo hacen los humanos.
Sam Anthony, director de tecnología de Perceptive y ex pirata informático con un doctorado en cognición y comportamiento cerebral de Harvard, desarrolló una manera de tomar las pruebas de reconocimiento de imágenes utilizadas en psicología y usarlas para entrenar las llamadas redes neuronales, una especie de aprendizaje automático basado a grandes rasgos en cómo funciona el cerebro humano.
Su startup reclutó a cientos de personas de diversos rangos de edad, experiencias de conducción y lugares para ver miles de videos cortos o imágenes de la vida en la calle –peatones que conversan en una esquina, un ciclista mirando su teléfono– y decidir qué están haciendo, o están a punto de hacer. Todas esas respuestas se introducen en la red neuronal, o cerebro del ordenador, hasta que tenga una biblioteca de referencia a la que pueda recurrir para reconocer lo que está sucediendo en situaciones de la vida real.
Perceptive ha descubierto que es importante incorporar diferencias regionales, ya que los cruces imprudentes en las calles son algo común en la ciudad de Nueva York y prácticamente no existen en otros lugares. "No hay nadie que cruce imprudentemente en Tokio, nunca lo he visto", dice Adler, de Toyota. "Estas costumbres y normas sociales sobre cómo evolucionará nuestra cultura y cómo evolucionarán las diferentes culturas con esta tecnología es increíblemente fascinante y también increíblemente compleja".
Perceptive está trabajando con startups, proveedores y fabricantes de automóviles en Estados Unidos, Europa y Asia, aunque no especifica cuales. La compañía espera tener su tecnología integrada en los automóviles de producción en masa con características de conducción autónoma a partir de 2021. Incluso a nivel de autonomía parcial, con funciones como el mantenimiento de carriles y la conducción en autopistas en modo manos libres, descifrar la intención humana es relevante.