Este artículo se publicó hace más de 6 meses
Proponen un sistema híbrido de detección visual para vehículos autónomos

Combinar dos tipos de cámaras permitiría a los vehículos autónomos detectar objetos con precisión y eficacia, según afirma un equipo de investigadores de Suiza en un estudio publicado en Nature. Los vehículos autónomos necesitan sistemas visuales capaces de detectar objetos que se mueven con rapidez sin sacrificar la calidad de las imágenes. El sistema descrito combina una cámara de color con una frecuencia de imagen reducida –para bajar el ancho de banda necesario para procesar imágenes— y una cámara de eventos, que detecta movimientos rápidos –como los de peatones o vehículos– y compensa la mayor latencia de la cámara de color.  

29/05/2024 - 17:00 CEST
cámara

La imagen muestra tanto la información de color de la cámara en color como los eventos (puntos azules y rojos) de la cámara de eventos generados por un peatón corriendo. Crédito: Robotics and Perception Group, Universidad de Zúrich, Suiza.

Reacciones

Angélica Reyes - cámara coche autónomo

Angélica Reyes

Profesora del departamento de Arquitectura de Computadores de la Universidad Politécnica de Cataluña e investigadora del grupo de Comunicaciones Inteligentes y Aviónica para Sistemas Aéreos No Tripulados Robustos

Science Media Centre España

El desarrollo de sistemas de transporte inteligente está orientado a ofrecer servicios de información de tráfico en tiempo real a todos los usuarios de la vía, desde vehículos autónomos, peatones, hasta los usuarios más vulnerables, como pueden ser las personas con alguna discapacidad. En un ecosistema en que los vehículos se comunicarán con otros vehículos y con diferentes infraestructuras de la vía, se vuelve trascendental que los vehículos sean capaces de analizar y procesar la información recibida para tomar decisiones. Sin embargo, características como las altas velocidades de los vehículos, la movilidad constante, la variable densidad del tráfico, etc., plantean grandes desafíos.  

El artículo de Daniel Gehrig y Davide Scaramuzza presenta un avance interesante en la visión para automóviles utilizando cámaras de eventos combinadas con cámaras RGB que mejoran la percepción en tiempo real con una alta resolución y baja latencia, lo cual es crucial para la detección rápida y precisa de objetos en condiciones de alta velocidad y cambios abruptos de iluminación. Los autores utilizan una red neuronal convolucional (CNN) para procesar imágenes y una red neuronal de grafos asincrónica (GNN) para procesar eventos. 

Declara no tener conflicto de interés
ES
Publicaciones
Low-latency automotive vision with event cameras
  • Artículo de investigación
  • Revisado por pares
Revista
Nature
Fecha de publicación
Autores

Daniel Gehrig & Davide Scaramuzza.

Tipo de estudio:
  • Artículo de investigación
  • Revisado por pares
Las 5W +1
Publica
FAQ
Contacto