Conocimiento Bóveda 2/99 - ICLR 2014-2023
Hongyang Li • Mengye Ren • Li Chen • Chonghao Sima • Kashyap Chitta • Holger Caesar • Ping Luo • Wei Zhang ICLR 2023 - Taller Representaciones de Escena para Conducción Autónoma
<Imagen de Resumen >

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4 | Gemini Adv | Llama 3:

graph LR classDef perception fill:#f9d4d4, font-weight:bold, font-size:14px; classDef prediction fill:#d4f9d4, font-weight:bold, font-size:14px; classDef mapping fill:#d4d4f9, font-weight:bold, font-size:14px; classDef robustness fill:#f9f9d4, font-weight:bold, font-size:14px; classDef models fill:#f9d4f9, font-weight:bold, font-size:14px; classDef datasets fill:#d4f9f9, font-weight:bold, font-size:14px; classDef foundation fill:#f9d4d4, font-weight:bold, font-size:14px; A[Taller Representaciones de Escena
para Conducción Autónoma
ICLR 2023] --> B[Taller: representación de escena para
conducción autónoma 1] B --> C[Waymo: V2V/V2I mejora
el rango perceptual 2] B --> D[Conducción centrada en visión: predicción
de trayectoria de extremo a extremo 3] B --> E[Percepción visual robusta se adapta
a dominios/climas 4] B --> F[Modelos conscientes de 3D sintetizan
objetos, humanos, escenas 5] B --> G[Conjunto de datos AI Motive: robusto,
radar de largo alcance 6] B --> H[VIP3D: detección monocular 3D
con atención multivista 7] B --> I[Aprendizaje activo reduce costos de
anotación 3D 8] B --> J[CO3: aprendizaje 3D auto-supervisado
con datos V2I 9] B --> K[Robust3D-OD evalúa la robustez de
modelos 3D 10] B --> L[CRN: detección 3D en tiempo real
con cámara-radar 11] B --> M[Percepción de profundidad en
transformadores de visión 12] B --> N[MPC neuronal para
rotondas de varios carriles 13] B --> O[Entrenamiento adversarial para estimación
de profundidad robusta 14] B --> P[MapTR: construcción de mapas HD
de extremo a extremo 15] B --> Q[Preentrenamiento de política geométrica
mejora eficiencia de muestras 16] B --> R[WAVE: RL, modelos del mundo
para inteligencia de conducción 17] B --> S[SafeBench: escenarios críticos de seguridad,
evaluación de AD 18] S --> T[Modelos de difusión generan
escenarios críticos de seguridad 19] S --> U[GPT-3 genera descripciones de
escenarios de conducción 20] B --> V[Certificación de robustez de
percepción matemáticamente tratable 21] V --> W[Garantías de robustez certificada
para sistemas críticos de seguridad 22] A --> X[Modelos base: modulares,
interpretables, seguros 23] X --> Y[Canalizaciones modulares permiten restricciones
de seguridad, certificación 24] X --> Z[Aprendizaje multiparadigma crucial
para AD robusto 25] X --> AA[Estimación de incertidumbre, IA incorporada
para percepción robusta 26] X --> AB[Academia: aprendizaje continuo,
investigación en razonamiento de máquinas 27] X --> AC[Compresión de modelos para
despliegue en el borde 28] X --> AD[Aprovechar modelos de código abierto
para iniciar la investigación 29] X --> AE[Emoción y conciencia
de las limitaciones del modelo 30] class B,C,E,F,H,K,L,M,O,V,W perception; class D,N,Q,R,S prediction; class G,J,P mapping; class I,T,U,Y,Z,AA,AB robustness; class AC,AD,AE models; class X foundation;

Resumen:

1.-El taller se centró en el aprendizaje de representación de escenas para la conducción autónoma, cubriendo temas como percepción, predicción, mapeo, seguridad y robustez.

2.-Han Qiu de Waymo discutió la percepción cooperativa usando comunicación V2V y V2I para mejorar el rango perceptual de los vehículos autónomos.

3.-Han Zhao de la Universidad de Tsinghua presentó investigaciones sobre conducción autónoma centrada en visión, incluyendo predicción de trayectoria de extremo a extremo y mapas neuronales previos.

4.-Dengxin Dai habló sobre la construcción de modelos de percepción visual robustos que puedan adaptarse a nuevos dominios y condiciones climáticas.

5.-Yi Liao propuso el uso de modelos generativos conscientes de 3D entrenados en imágenes 2D para sintetizar nuevos objetos, humanos y escenas urbanas.

6.-Thomas Matuszka presentó el conjunto de datos AI Motive - un conjunto de datos multimodal para conducción autónoma robusta con percepción de radar de largo alcance.

7.-Chenfeng Xu presentó un método llamado VIP3D que mejora la detección de objetos 3D monocular aprovechando imágenes multivista y mecanismos de atención.

8.-Zhou Xiao exploró enfoques de aprendizaje activo para reducir los costos de anotación de detección de objetos 3D manteniendo un alto rendimiento del modelo.

9.-Ren Jiechen propuso un método de aprendizaje auto-supervisado llamado CO3 que aprovecha los datos de vehículo a infraestructura para el aprendizaje de representación 3D.

10.-Lin Dong evaluó la robustez de los modelos de percepción 3D frente a corrupciones comunes y fallos de sensores en el conjunto de datos Robust3D-OD.

11.-Yongseok Kim presentó CRN, una red de fusión cámara-radar que logra un rendimiento de detección 3D a nivel de LiDAR en tiempo real.

12.-Peter Mortimer investigó cómo los transformadores de visión perciben la profundidad a partir de una sola imagen y creó una publicación de blog interactiva.

13.-Yao Mu propuso un marco de control predictivo de modelo neuronal para la toma de decisiones de conducción autónoma en rotondas de varios carriles.

14.-Zhiyuan Cheng propuso un enfoque de entrenamiento adversarial para hacer que los modelos de estimación de profundidad monocular auto-supervisados sean robustos frente a ataques físicos.

15.-Ben Cheng Liao presentó MapTR, una arquitectura de transformador de extremo a extremo para la construcción de mapas HD vectorizados en línea.

16.-Peng Hao Wu propuso un método de preentrenamiento de política geométrica auto-supervisado para modelos de conducción autónoma visual para mejorar la eficiencia de las muestras.

17.-Jamie Shulton de WAVE discutió la simulación, el aprendizaje por refuerzo, los modelos del mundo y el lenguaje para construir inteligencia de conducción escalable.

18.-SafeBench es una plataforma unificada para generar escenarios de conducción críticos para la seguridad y evaluar sistemas de conducción autónoma.

19.-Los modelos de difusión pueden aprovecharse para generar escenarios críticos para la seguridad realistas y diversos para pruebas de vehículos autónomos.

20.-Modelos de lenguaje grandes como GPT-3 pueden usarse para generar automáticamente descripciones en lenguaje natural de escenarios de conducción complejos.

21.-Certificar la robustez de la percepción de conducción autónoma frente a transformaciones semánticas es importante y matemáticamente tratable para nubes de puntos.

22.-Bo Li enfatizó la necesidad de ir más allá de la robustez empírica y proporcionar garantías de robustez certificada para sistemas críticos de seguridad.

23.-Los modelos base en conducción autónoma pueden ser más modulares en lugar de ser de extremo a extremo, con consideraciones de interpretabilidad y seguridad.

24.-Las canalizaciones modulares de conducción autónoma permiten la incorporación de restricciones de seguridad, certificaciones y razonamiento basado en conocimiento más fácilmente que los modelos de extremo a extremo.

25.-Combinar aprendizaje supervisado, aprendizaje por refuerzo, aprendizaje por imitación y aprendizaje auto-supervisado es crucial para construir sistemas de conducción autónoma robustos.

26.-La estimación de incertidumbre y el aprovechamiento de antecedentes de IA incorporada son importantes para construir sistemas de percepción robustos que sepan cuándo no saben.

27.-La academia está enfocada en preguntas de investigación fundamentales sobre el aprendizaje continuo eficiente a partir de datos limitados y el razonamiento de máquinas.

28.-Técnicas de compresión de modelos son cruciales para desplegar grandes modelos base en dispositivos de borde con recursos limitados, especialmente en países en desarrollo.

29.-Los investigadores deben aprovechar y ajustar modelos base de código abierto para iniciar nuevas investigaciones en lugar de entrenar modelos desde cero.

30.-La comunidad de investigación en conducción autónoma está emocionada por aprovechar los modelos base mientras es consciente de sus limitaciones actuales.

Bóveda del Conocimiento construida porDavid Vivancos 2024