EEUU.
Para guiar el futuro de sus automóviles autónomos, Tesla tiene una posición clara y ahora está apostando todo por las cámaras, apartándose de algunos especialistas en sistemas de asistencia a la conducción que además utilizan sensores de radar y láseres lídar.
En la gran feria tecnológica CES en Las Vegas, el fabricante de lídars Luminar instaló un experimento en un estacionamiento para demostrar la superioridad de su producto: hizo andar a dos autos paralelamente a unos 50 km / h para que al final de la pista se levantara la silueta de un niño.
El vehículo equipado con su producto frena a tiempo para no arrollarlo y el otro, un Tesla, llega a empujar al muñeco de pruebas.
Las condiciones del experimento no fueron validadas por una persona externa, «pero no solo queríamos mostrar unas diapositivas de Powerpoint o un buen video», dijo Aaron Jefferson, jefe de desarrollo de productos de Luminar.
«En condiciones perfectas de conducción, en un día soleado, las cámaras pueden hacer mucho», reconoció. «El problema son las situaciones atípicas», como puntos ciegos, niebla, una bolsa de plástico, la luz particular al atardecer, etc.
La mayoría de los fabricantes de sistemas de conducción autónoma ha optado por combinar cámaras con radares y / o lídars, que permiten medir la distancia con ondas de radio o láser. Tesla, sin embargo, decidió el año pasado eliminar los radares y depender únicamente de las cámaras para su sistema de asistencia al conductor.
Según su CEO, Elon Musk, con los avances tecnológicos, un «cerebro artificial» que funciona con cámaras puede igualar las capacidades de un cerebro humano que analiza su entorno con dos ojos.
«Es una estrategia bastante razonable», admite Kilian Weinberger, profesor de la Universidad de Cornell que ha trabajado en la detección de objetos en sistemas de conducción autónomos.
Oficialmente, Tesla ofrece por el momento solo sistemas de asistencia a la conducción, pero espera llegar a brindar un sistema de conducción completamente autónomo.
Predecir es complicado
Tesla optó, hace varios años, por instalar cámaras y también radares por defecto en todos sus coches y así pudo recabar una cantidad significativa de información sobre cómo conducen los usuarios en condiciones reales.
«Lo que hizo en esencia es que, al recopilar una gran cantidad de datos, puede entrenar un algoritmo para que sea tan bueno como el algoritmo que usa todos los costosos sensores que guardan muchos menos datos», explica Weinberger.
Los robot-taxis de Waymo, la filial autónomos de Google, están, por ejemplo, llenos de sensores pero solo funcionan en condiciones específicas.
Los sistemas de conducción autónoma tienen cuatro funciones principales, señala Sam Abuelsamid, de Guidehouse Insights: percibir el entorno, predecir lo que sucederá, planificar lo que hará el automóvil y ejecutarlo.
«Predecir resultó ser mucho más complicado de lo que pensaban los ingenieros, especialmente con peatones y ciclistas», dice.
El progreso que los ingenieros pensaron lograr con el software que solo usaba cámaras a través de inteligencia artificial y el aprendizaje automático se ha estabilizado.
Requisitos de los reguladores
El problema es que «Elon Musk deslumbró con su sistema de conducción autónoma y se aseguró de que el equipo ya instalado en los coches fuera suficiente», dice Abuelsamid.
«Tesla ya no puede volver atrás, porque cientos de miles de personas han pagado dinero» para acceder a él.
Para el jefe del fabricante francés de equipos Valeo, que presenta su tercera generación de lídar en el CES, «las cámaras por sí solas, sea cual sea la cantidad de datos almacenados, no son suficientes».
«Entender, analizar lo que pasa alrededor del auto, lo que vemos y lo que no vemos, día y noche, es absolutamente clave», insiste Jacques Aschenbroich.
«Nuestra absoluta convicción es que los lídars» son necesarios para alcanzar niveles más avanzados de autonomía, concluye.
«Todos los sensores tienen sus ventajas y sus inconvenientes», indica Marko Bertogna, profesor de la Universidad italiana Unimore y jefe de uno de los equipos presente en la carrera del viernes de autos no tripulados en Las Vegas.
«En el estado actual del conocimiento», las cámaras por sí solas todavía cometen demasiados errores, cree Bertogna.
Por ahora, «cuantos más sistemas tengas operando en paralelo, y más consigas fusionar diferentes tipos de sensores, es más probable que estés entre los primeros en cumplir con los requisitos de seguridad que te van a exigir los reguladores», predice el especialista.
Por: AFP | Patrick Fallon | Juliette Michel
- La radiación cósmica y el surgimiento de la vida - diciembre 8, 2024
- La falta de nubosidad baja podría explicar el calentamiento global - diciembre 7, 2024
- Premios Nobel abogan por regular correctamente la Inteligencia Artificial - diciembre 7, 2024