Cuidado con los vehículos que casi se manejan solos

Cuidado con los vehículos que casi se manejan solos

Por John Gapper
Joshua Brown falleció en mayo, cuando su auto deportivo Tesla se metió debajo del remolque de un camión que invadió su carril en una carretera de Florida. Brown había activado la conducción automática del vehículo, y, trágicamente, ni él ni las cámaras o los sensores detectaron el remolque blanco iluminado por el sol.
Desde que Tesla reveló los detalles del fatal incidente, el accidente ha sido considerado como un revés para los vehículos autónomos. Estrictamente hablando, no debería ser así. A pesar de que la compañía de autos eléctricos de Elon Musk llama ‘piloto automático’ a la tecnología que estaba conduciendo su Modelo S en ese momento, eso es engañoso. Se puede confiar en un piloto automático completo para que un auto se conduzca por sí mismo; la versión de Tesla no puede hacerlo.
Brown, que con gran entusiasmo había publicado videos de YouTube de sí mismo en su Tesla en piloto automático, se confió en la tecnología. Pero el error de Brown fue inusual: actuó como si el coche fuera más inteligente de lo que era. Era capaz de ayudar a su conductor a dirigir y frenar, pero incapaz de quedar totalmente al mando.
Eso es lo que hace que sea un incidente fundamental en el camino hacia los autos totalmente autónomos, que puedan circular por carreteras y calles de la ciudad por sí mismos, evitando obstáculos y otros vehículos con láseres, sensores y cámaras. Indica que no será fácil ni regular el progreso que permita que la tecnología evolucione de sirviente a patrón: se necesita un gran salto hacia adelante.
Esto es crucial, ya que los fabricantes de automóviles, proveedores y nuevos competidores como Google (y tal vez Apple) están a mitad de camino. Se enfrentan a preguntas críticas acerca de cuánto confiar en los conductores para que compartan los controles con la tecnología que, si bien es más avanzada que incluso hace dos años, está lejos de ser plenamente apta.
los-coches-tesla-ya-se-conducen-solos-asi-funciona-su-piloto-automatico (1)
Tesla cree que se puede confiar en los conductores, y que sus resultados lo demuestran. La muerte de Brown es la primera en los 200 millones de kilómetros que los Tesla han recorrido en piloto automático. Eso es mejor que el promedio de 2015 de una muerte por cada 143 millones de kilómetros recorridos en EE.UU. Tesla advierte a los propietarios que deben permanecer atentos y colocar sus manos en el volante. Las pantallas del auto emiten sonidos y advertencias si los conductores desobedecen estas instrucciones.
No concuerdo con Tesla sobre cuánto se debe confiar en los conductores por dos razones. Una es que muchas personas ignoran sus advertencias: una exploración a través de YouTube muestra a muchos conductores de Tesla demostrando este hecho descaradamente. Quitan las manos del volante con entusiasmo mientras circulan por autopistas, desviando los ojos del camino para hacer un comentario frente a la cámara.
En cierto modo, ninguna persona sensata podría confundir un Tesla con un coche autónomo. El piloto automático de Tesla puede mantenerlo a una distancia segura de otros en las autopistas, y puede conducir por rutas que tengan bien marcados los carriles. Esto es lo que se clasifica oficialmente como tecnología de nivel 2, muy por debajo del teórico vehículo autónomo nivel 5, que podría conducir incluso sin un piloto en el asiento.
La segunda razón es que casi nadie sabe exactamente lo que es un vehículo autónomo, y pocos pueden recitar las diferencias entre los distintos niveles. Para la mayoría de la gente, el accidente de Tesla suena como una fatalidad causada por un vehículo de autoconducción, que podría manchar su opinión del concepto total. Confiar demasiado en los conductores de vehículos de conducción asistida podría provocar la desconfianza del público en la autonomía en general.
Eso sería un desperdicio porque crear un mundo de vehículos autónomos sería un gran logro. Cuando un auto de autoconducción de Google estuvo involucrado en un accidente este año, sostuve que preferiría un coche conducido por una computadora a un coche conducido por un humano distraído por un teléfono, y esto sigue siendo cierto. La gran mayoría de muertes y lesiones graves de los vehículos son causadas por errores humanos, y la mayoría podrían ser eliminadas.
No obstante, no podemos ignorar los retos para lograrlo. Tomemos, por ejemplo, la necesidad de que los coches de autoconducción de avanzada puedan leer mapas tridimensionales de alta definición del terreno a su alrededor. Es bastante simple trazar mapas de las cuatro ciudades de EE.UU. que en este momento recorren los vehículos de autoconducción de Google, pero el mapeo de todas los caminos del mundo es otra cosa.
Los vehículos también requieren potentes computadoras y sistemas de comunicación, con elementos de inteligencia artificial para predecir cómo se comportarán los conductores humanos. Necesitan una serie de sensores y radares de manera que, si uno falla en detectar otro vehículo, como lo hizo el Tesla de Brown, haya un respaldo. Lograr todo esto es bastante concebible pero no será de inmediato a escala.
Volvo piensa lanzar en 2017 un programa piloto de 100 vehículos XC90 de autoconducción en una zona mapeada en 3D alrededor de la ciudad sueca de Gotemburgo el próximo año, lo que permitirá a los conductores ignorar el camino en forma segura. BMW se ha asociado con el fabricante de chips Intel y con Mobileye, una compañía israelí que produce sensores, para hacer vehículos de autoconducción para el año 2021, los cuales serían capaces de circular por sí solos sin conductor en algunos lugares.
Mientras tanto, todas las empresas deben tener cuidado de no prometer en exceso lo que la tecnología puede hacer actualmente. Tesla ya les advierte a sus propietarios que no se dejen llevar por la tecnología. La advertencia debe ser más enérgica.
EL CRONISTA