Se instalan más sensores, incluso cámaras, LiDAR y sistemas de radar, en vehículos nuevos. Estos sensores recopilan y transmiten información que podría ayudar a otros automóviles y a las autoridades de control del tráfico a evitar accidentes e identificar peligros en la carretera.
Uno de los principales desafíos para las autoridades de control del tránsito es actualizar de manera continua la información sobre las condiciones de la carretera. Sin tener una visión directa de las calles y las carreteras, es casi imposible realizar un seguimiento de los cambios continuos en las condiciones del tráfico, los peligros, las obras temporales y otros elementos que ocurren en tiempo real.
Los vehículos conectados más nuevos, equipados con una batería de sensores para captar su entorno, podrían salvar vidas si pueden enviar información sensorial al sistema de gestión del tráfico, actualizando continuamente las condiciones actuales.
Los autos conectados tienen un tesoro oculto de sensores de visión por computadora que mapean su entorno
Hoy en día, es raro encontrar un modelo nuevo que no esté equipado con cámaras u otros equipos de detección. Incluso los modelos de coches más básicos tienen sensores de proximidad para ayudar a los conductores a estacionar y moverse en espacios reducidos.
Los modelos avanzados también tienen varias cámaras para detectar otros vehículos, así como la infraestructura a su alrededor. Esas cámaras, que supervisan de forma continua la carretera con una visión de 360°, ayudan a los Sistemas avanzados de asistencia al conductor (ADAS) a alertar a los conductores sobre cambios de carril y otros vehículos que se aproximan o frenan. Además, esas cámaras permiten el estacionamiento automático y funciones limitadas sin conductor en algunos modelos.
Muchos vehículos con características ADAS sofisticadas también tienen otros sensores, como radares y sistemas de detección por luz y distancia (LiDAR). Ambas tecnologías ahora resultan críticas para permitir vehículos con conducción parcial y totalmente autónoma.
LiDAR se utilizó en los primeros coches experimentales sin conductor. Es una tecnología que detecta objetos en la superficie, así como su tamaño y posición exacta. La NASA inventó la tecnología hace más de 45 años para medir distancias en el espacio. LiDAR tiene la ventaja de producir una copia digital de cualquier objeto físico (un gemelo digital) y mapear el entorno alrededor del vehículo.
En la actualidad, los sensores LiDAR son compactos y consumen mucha menos energía que los modelos anteriores. Los nuevos sensores se pueden instalar en varias ubicaciones en torno a un vehículo, lo que permite que su computadora "vea" el mundo real en 3D a su alrededor. El mayor inconveniente de LiDAR es que no funciona bien en condiciones de clima nublado o dentro de bancos de niebla. Debido al uso de haces de luz, requiere una línea de visión clara para mapear su entorno con precisión.
A fin de complementar LiDAR y trabajar en esas condiciones desafiantes para las cámaras, algunos modelos también usan la tecnología de radares. La tecnología, ampliamente utilizada para la aviación y la aplicación de la ley, utiliza ondas de radio para medir la distancia y la composición de diferentes objetos. Su principal limitación es no poder detectar objetos pequeños. Puede detectar objetos más grandes, como otros vehículos, pero no puede suministrar una imagen precisa. Es por eso que la mayoría de los vehículos usan el radar como respaldo de LiDAR, no como reemplazo.
Muchos vehículos ahora dependen de cámaras de alta definición nuevas y avanzadas para la mayoría de las funciones de ADAS. La tecnología de empresas como Mobileye desarrolla cámaras y software sofisticados para recrear la forma en que los humanos ven el entorno y reaccionan ante él.
La filosofía de Mobileye ha sido que "si un ser humano puede conducir un automóvil basándose únicamente en la visión, también lo puede hacer una computadora". Argumentan que, si bien otros sensores pueden ofrecer redundancia para la detección de objetos, la cámara es el único sensor en tiempo real para determinar la geometría de la ruta de manejo y otros componentes semánticos estáticos de la escena (como señales de tráfico, marcas en la carretera, entre otros).
Los proyectos de Vision-Zero no están teniendo éxito debido a la falta de datos
En 1997, el Parlamento sueco introdujo una política llamada Vision Zero que exige reducir a cero las muertes y las lesiones graves para 2020.
Hoy en día, muchas ciudades del mundo cuentan con programas de Vision-Zero para reducir el número de accidentes y muertes en la carretera. En la mayoría de las ciudades densamente pobladas, como Nueva York o San Francisco, más de un tercio de las colisiones graves y fatales ocurren en un reducido grupo de calles. Para abordar la situación, los municipios se enfocan en aquellas áreas con mejoras prácticas de seguridad, como carriles para bicicletas protegidos, aceras más anchas y velocidades de tráfico reducidas.
Si bien esto ha ayudado a reducir la cantidad de accidentes en algunas áreas, el objetivo de Vision Zero (cero muertes) es difícil de alcanzar. En San Francisco, murieron diez peatones en 2021, 15 en 2019 y 11 en 2016.
Para avanzar en la protección de conductores, ciclistas y peatones, una cartografía precisa del entorno resulta fundamental. Si bien las cámaras de tráfico brindan información básica, los estándares de seguridad operativa requieren sensores de respaldo (redundancia), para todos los elementos de la cadena, desde la detección hasta la activación y más.
Un ejemplo es el uso de Google Maps para detectar los embotellamientos de tráfico. Como muchos usuarios de teléfonos inteligentes mantienen activa su función de ubicación, los servidores de Google pueden ver el volumen y la velocidad del tráfico, lo que permite actualizar con precisión sus mapas para mostrar dónde el tráfico es fluido o si se produce un atasco.
Es por eso que algunos fabricantes de vehículos, en colaboración con las autoridades de tránsito, ahora están iniciando proyectos de "mapeo de multitudes", aprovechando la proliferación de sistemas basados en cámaras para construir y mantener un mapa preciso del entorno casi en tiempo real. Básicamente, los automóviles conectados con diferentes sensores transmiten datos comprimidos sobre la geometría del área y los puntos de referencia alrededor del vehículo. Con información de ubicación precisa, esos datos se envían a la nube para su acumulación y análisis. Luego, el sistema actualiza sus bases de datos, que luego se utilizan para actualizar mapas de alta precisión para los vehículos conectados y las autoridades de tránsito.
Además, cualquier vehículo de la red puede alertar acerca de posibles peligros en tiempo real sin la intervención del conductor. Por ejemplo, supongamos que parte de la carretera está bloqueada por un árbol caído o por un semáforo que no funciona. En ese caso, la computadora a bordo puede enviar automáticamente una alerta a los servicios relevantes.
Cuando están habilitados, estos sistemas de mapeo de multitudes y detección en tiempo real podrían ayudar a reducir los accidentes y eliminar los peligros potenciales en cualquier lugar y momento.
Los estándares y la colaboración son primordiales
Por supuesto, un conjunto de estándares comunes y la colaboración entre las partes interesadas resulta fundamental para poder tener una visión compartida del entorno vial y abordar los posibles peligros.
Se estima que un coche totalmente autónomo (Nivel 5 o 6) podría resultar implicado en un accidente una vez de cada 100 situaciones de peligro. Si esta tasa de fallo se mantiene en los sistemas ADAS con la conectividad e información correctas, donde el conductor aún está activo y receptivo, se podrían evitar el 99 % de los accidentes automovilísticos.
En la actualidad, millones de vehículos en todo el mundo están equipados con sensores, potencia de procesamiento y conectividad para permitir un futuro de movilidad más seguro. Depende de los fabricantes de vehículos, las autoridades de control del tránsito y otras partes interesadas encontrar formas de compartir información y, en última instancia, llegar al objetivo de Vision Zero.