Conocimiento Bóveda 5 /12 - CVPR 2016
Tres Pilares de la Conducción Autónoma
Amnon Shashua
< Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef autonomous fill:#f9d4d4, font-weight:bold, font-size:14px classDef sensing fill:#d4f9d4, font-weight:bold, font-size:14px classDef mapping fill:#d4d4f9, font-weight:bold, font-size:14px classDef policy fill:#f9f9d4, font-weight:bold, font-size:14px classDef future fill:#f9d4f9, font-weight:bold, font-size:14px A["Tres Pilares de la
Conducción Autónoma"] --> B["Conducción autónoma: utilización del vehículo,
seguridad, movilidad, contenido, IA/robótica. 1"] A --> C["Tres pilares: percepción, mapeo, política. 2"] C --> D["Percepción: modelo ambiental,
objetos, obstáculos, caminos, cámaras. 3"] D --> E["Detección de objetos 3D,
acciones de peatones necesarias. 4"] D --> F["Espacio libre, detección de caminos
a través del contexto de aprendizaje profundo. 5"] C --> G["Percepción: presente, agente único, predecible.
Política: futuro, multiagente, menos predecible. 6"] G --> H["La política aprende comportamientos humanos,
asertividad mediante aprendizaje por refuerzo. 7"] C --> I["Mapeo: redundancia, previsión, control.
Tipos: ninguno a alta definición. 8"] I --> J["Mapas de alta definición: actualizaciones en tiempo real,
localización de 10cm, colaborativos. 9"] J --> K["Mapas colaborativos: puntos de referencia 3D dispersos,
carretera 1D densa. 10"] I --> L["Localización + información del mapa
permite control del vehículo, redundancia. 11"] B --> M["Piloto automático actual: control lateral inseguro.
Autonomía real llegando en etapas. 12"] M --> N["2018-2020: conducción altamente autónoma
en autopistas, parada segura. 13"] M --> O["2021: conducción totalmente autónoma SAE 4/5
flotas de viajes compartidos geocercadas. 14"] M --> P["2023+: autonomía en todas partes
si se demuestra segura. 15"] P --> Q["Permite propiedad compartida,
suscripciones, disrupción del transporte. 15"] class A,B,M,N,O,P,Q autonomous class C,D,E,F,G sensing class H policy class I,J,K,L mapping

Resumen:

1.- La conducción autónoma es importante para una mejor utilización del vehículo, seguridad, movilidad compartida, proporcionar contenido a los pasajeros y desarrollar IA/robótica con modelos de negocio claros.

2.- Tres pilares permiten la conducción autónoma: percepción, mapeo y política de conducción. Deben desarrollarse simultáneamente ya que están interrelacionados.

3.- La percepción (cámaras, radar, lidar) construye un modelo ambiental de objetos en movimiento, obstáculos, límites de caminos y caminos transitables. Las cámaras proporcionan la resolución necesaria y la información de apariencia.

4.- La detección de objetos en movimiento requiere cajas delimitadoras 3D, no solo 2D. La detección de peatones necesita detalles sobre acciones. Esto es un progreso incremental sobre la tecnología actual.

5.- La detección de delimitadores de espacio libre/camino es un pequeño salto usando aprendizaje profundo para entender el contexto. La detección de caminos transitables con semántica de carriles es muy compleja.

6.- La percepción se centra en el presente, agente único, predecible. La planificación/política de conducción se centra en el futuro, multiagente, menos predecible. Requiere aprendizaje por refuerzo.

7.- La política de conducción aprende comportamientos de conducción humana para permitir la asertividad adecuada a través del aprendizaje por refuerzo en entornos simulados y reales. Maneja negociaciones en fusiones, intersecciones, etc.

8.- El mapeo proporciona redundancia, previsión y capacidad de control para la autonomía. Los tipos de mapas varían desde ninguno hasta mapas de navegación, mapas de alta definición y nubes de puntos 3D.

9.- Los mapas de alta definición necesitan actualizaciones en tiempo real y localización de 10cm, por lo que deben ser colaborativos desde vehículos de producción que envían datos mínimos. Esto aprovecha las cámaras frontales regulatorias.

10.- Mapas colaborativos compuestos de puntos de referencia 3D dispersos (señales, postes, etc.) y elementos del modelo de carretera 1D densa, usando ego-movimiento para manejar brechas de puntos de referencia, permitiendo localización de 10cm.

11.- La localización precisa en el mapa de alta definición, combinada con la información del mapa, permite el control lateral y longitudinal del vehículo para la autonomía, proporcionando redundancia de percepción.

12.- El piloto automático actual en autopistas (por ejemplo, Tesla) no es autónomo - es un control lateral inseguro. La autonomía real está llegando en etapas:

13.- 2018-2020 traerá conducción altamente autónoma en autopistas con conciencia de 360°, parada segura si el conductor no toma el control. El salto a la autonomía real es 2021+.

14.- 2021 permitirá la conducción totalmente autónoma (Nivel SAE 4/5) para flotas de viajes compartidos geocercadas, permitiendo Uber/Lyft sin conductor, nuevos modelos de negocio.

15.- 2023+ podría permitir autonomía en todas partes una vez que se demuestre segura. Permite propiedad compartida entre hogares, modelos de suscripción, disrupción del transporte.

Bóveda del Conocimiento construida por David Vivancos 2024