Autonomous Solutions, Inc. (ASI) dijo que ha mejorado un algoritmo para vehículos autónomos para detector disminuciones y otros obstáculos “negativos” grandes que a menudo se encuentran en áreas en las cuales normalmente operan vehículos fuera de carretera.

“ASI ha desarrollado un método para mapear oclusiones a la nube de puntos en tiempo real,” dijo Taylor Bybee, Técnico de Percepción de ASI. “[Esto] entrega seguridad y exactitud extra cuando se integra a la detección de un obstáculo de un vehículo autónomo y a un sistema de prevención.”

Para una navegación segura en un ambiente, los vehículos autónomos de tierra dependen de datos de un sensor que representa espacio en 3D rodeando el vehículo. A menudo estos datos son ocultados por objetos o por el terreno, produciendo brechas en el campo de vista del sensor. Estas brechas, u oclusiones, pueden indicar la presencia de obstáculos, obstáculos negativos, o terreno irregular.

Las oclusiones se pueden definir como un bloqueo que evita que un sensor capture datos en un lugar. Por ejemplo, las oclusiones se pueden ver como sombras en datos LiDAR. Como los sensores no reciben datos en estas oclusiones, los datos del sensor no proporcionan información explícita acerca de que podría encontrarse en las áreas ocluidas. Se puede inferior información acerca de las oclusiones a partir del uso de un algoritmo de mapeo de oclusiones para brindarle al sistema de navegación un modelo más completo del medioambiente.

“A pesar de que los datos del sensor en sí mismos no nos dicen que hay en las áreas ocluidas, las oclusiones pueden representar obstáculos negativos como disminuciones o áreas que están detrás de obstáculos grandes,” dijo Jeff Ferrin, CTO en ASI. “Es importante identificar estas áreas para que la detección y evasión de obstáculos funcione apropiadamente.”

La aplicación de esta nueva tecnología puede ser útil en entornos con orillas de botaderos en faena mineras, orillas escarpadas de caminos, canales, zanjas, colinas o escalones para ambientes interiores o urbanos. El algoritmo de mapeo de oclusión tiene tres componentes principales. El primero es un modelo de sensor de campo de visión (FOV) que describe qué obstáculos se espera que detecten los sensores. Este componente está diseñado para sensores de nube de puntos tales como 3D LiDAR, Flash LiDAR, luz estructurada u cámaras estéreo.

Segundo, un mapa de oclusión se mantiene y actualiza usando el modelo de sensor FOV y datos actuales del sensor para proporcionar una estimación probabilística en áreas que no han sido detectadas dentro del sensor FOV. El tercer componente es la integración del mapa de oclusión a un sistema de navegación de vehículos autónomos. Está diseñado para complementar sistemas de detección y evasión de obstáculos existentes y para trabajar con ellos, de acuerdo a ASI.