Cuando se trata de seguridad, los vehículos autónomos aún son “conductores adolescentes”

Los gigantes de la tecnología y los fabricantes de automóviles han invertido enormes cantidades de dinero y esfuerzo en el desarrollo de vehículos que puedan conducirse por sí solos. Pero antes de que Google, Tesla, Uber y otros puedan persuadir a los seres humanos a compartir las calles con robots, deben probar esta tecnología, que si bien está en etapa de aprendizaje y maduración, no es lo suficiente para inundar las carreteras del país con peligrosos conductores robóticos adolescentes.

“A veces escucho [a la] industria hablar sobre vehículos autónomos como si estuvieran a punto de poner al conductor más seguro en la carretera”, dice Nidhi Kalra, una experimentada científica de la información que integra la organización sin fines de lucro RAND Corp. “La realidad es que es más como poner en las rutas a un conductor adolescente”. En su opinión, los vehículos con inteligencia artificial podrán mejorar sus habilidades de conducción y de toma de decisiones muy rápidamente.

En el mundo de la autoconducción la seguridad es un tema extremadamente complicado por varias razones. Para empezar, los reguladores tendrán que llegar a una definición de “seguro”, tanto si eso significa que las máquinas deben conducir sin problemas o simplemente romper menos leyes y sufrir menos cantidad de accidentes que los conductores humanos. Entre otros asuntos complicados, las empresas están desarrollando muchos niveles diferentes de automatización, que van desde ayudar a los conductores a frenar, estacionar y cambiar de carril (lo que se conoce como habilidades  de “nivel 1”) hasta la autonomía total (“nivel 5”), para lo que aún faltan varios años.

No hay una sola prueba que pueda determinar la seguridad de los vehículos autónomos, dice Steven Shladover, ingeniero y gerente del programa Socios para el Progreso de la Tecnología de Transporte de la Universidad de California, en Berkeley. Shladover ha alentado a los reguladores de Estados Unidos y a los miembros de la industria a seguir el ejemplo del gobierno de Alemania, que patrocina la investigación para determinar la mejor manera de garantizar la seguridad de los sistemas de conducción automática. “Se necesita investigación básica para apoyar el desarrollo de métodos confiables y asequibles para evaluar la seguridad de un sistema de conducción automática cuando se enfrenta con la gama completa de peligros en el tráfico”, dice Shladover.

Los conductores deciden

El Departamento de Transporte de EE.UU. (DoT) le ha dado a empresas emergentes del Silicon Valley y a otras tradicionales de Detroit algunas orientaciones para ayudarlos a construir vehículos autónomos más seguros. Sin embargo, en ausencia de leyes federales que regulen el uso de vehículos autónomos y tecnologías de asistencia a conductores, el gobierno de EE.UU. podría simplemente dar un paso al costado y permitir que las empresas pongan más vehículos autónomos en las calles para recolectar los datos de seguridad necesarios, dice Alain Kornhauser, ingeniero de transporte y asesor del equipo de Ingeniería de Vehículos Autónomos de la Universidad de Princeton. Kornhauser y otros expertos sostienen que, en última instancia, estos vehículos podrían hacer que las carreteras sean más seguras al reducir los errores humanos. Con 38.300 muertes y 4,4 millones de heridos graves registrados solo en las carreteras de Estados Unidos en 2015, valdría la pena el riesgo de dejar que los vehículos autónomos naveguen más libremente y “aprendan” más rápido, dice Kornhauser.

Uber, el gigante del transporte compartido, parece apoyar este enfoque más audaz. Después de lanzar una prueba piloto inicial en Pittsburgh en octubre de 2016, Uber probó brevemente algunos vehículos autónomos en las calles de San Francisco, antes de acceder a detener estas pruebas cuando los reguladores de California protestaron por la falta de permisos para hacerlo. Sin embargo, para la compañía, “las pruebas en la vía pública del mundo real son esenciales tanto para ganar la confianza del público como para mejorar la tecnología a través del tiempo”, dice Chelsea Kohler, portavoz de Uber.

Los peligros de dejar que el mercado determine su tolerancia al riesgo se hicieron evidentes en mayo de 2016, cuando un Sedán S de Tesla que empleaba su tecnología semiautónoma “Autopilot” no pudo evitar chocar contra el costado de un semirremolque que se encontraba en el camino. La colisión resultante supuso la primera muerte conocida en la que estuvo involucrado un vehículo con tecnología de autoconducción. Sin embargo, el fundador y CEO de Tesla, Elon Musk, ha seguido adelante con el Autopilot, y en octubre de 2016 anunció que los nuevos autos Modelo S y Modelo X de Tesla podrían ejecutar su tecnología Autopilot en “modo sombra”, incluso cuando esta opción se encuentre técnicamente apagada. El “modo sombra” permite que la computadora de cada auto de Tesla compare las decisiones de conducción y frenado con las acciones de un conductor humano. Entonces, los vehículos pueden compartir sus conocimientos recién adquiridos entre sí desde los cambios del “aprendizaje de la flota” hacia su comportamiento programado.

Pruebas de ruta

Otro gran desafío es determinar por cuánto tiempo deben probarse los vehículos autónomos antes de que puedan ser considerados seguros. Tendrían que hacer cientos de millones —o a veces cientos de miles de millones— de millas para recolectar datos suficientes y demostrar su seguridad en términos de muertes o lesiones, de acuerdo con un informe de abril de 2016 del grupo de reflexión RAND Corp. El informe detalla que a las actuales flotas de vehículos autónomos de prueba les tomaría decenas o incluso cientos de años poder recorrer la cantidad de millas necesarias para hacer una comparación de seguridad estadísticamente significativa. Una flota de 100 autos debería conducir 275 millones de millas sin fallar —esto es, conducir alrededor de 12,5 años sin parar a 25 millas por hora— para cumplir con las normas de seguridad de los vehículos de hoy en términos de muertes. Al momento del accidente fatal, en mayo de 2016, los propietarios de automóviles Tesla habían registrado 130 millones de millas en el modo piloto automático.

Una manera de acelerar la curva de aprendizaje sería que las empresas de tecnología y los fabricantes de automóviles pudieran compartir sus datos de prueba con los competidores. “Creo que no hay duda de que si las empresas comparten abiertamente los datos, el desarrollo iría más rápido y los autos comenzarían a multiplicarse”, dice Sebastian Thrun, CEO y cofundador del proveedor de educación en línea Udacity y pionero en la tecnología de conducción autónoma que antes trabajó en Google. No resulta sorprendente que las empresas sean reacias a compartir esta información sin el estímulo extra de los reguladores.

Más allá de cómo se define y establece la seguridad, los vehículos autónomos y sin conductor necesitarán formas de superar el escepticismo de los humanos —conductores, pasajeros, ciclistas y peatones— siendo más transparentes, dice Brian Lathrop, alto ejecutivo del Laboratorio de Investigación Electrónica del Grupo Volkswagen de EE.UU. Eso significa que, en las rutas, la gente sepa cuándo un vehículo está en modo autoconducción o con asistencia al conductor. Los vehículos autónomos también tendrán que hacer saber a aquellos que viajan en él qué es lo que prevén hacer y ofrecer a quien va en el asiento del conductor la oportunidad de recuperar el control si es necesario, dice Lathrop.

Es desalentador pensar en un futuro en que los conductores humanos compartan los caminos con vehículos robóticos que tengan diferentes grados de capacidades autónomas, dice Lathrop. Eventualmente ocurrirá, pero la tecnología tendrá que ganarse nuestra confianza, igual que un adolescente con una licencia recién obtenida.

Fuente: scientificamerican.com