Conocimiento Bóveda 6 /45 - ICML 2019
Aprendizaje auto-supervisado
Yann LeCun
< Imagen de Resumen >

Gráfico de Conceptos & Resumen usando Claude 3.5 Sonnet | Chat GPT4o | Llama 3:

graph LR classDef main fill:#f9d4f9, font-weight:bold, font-size:14px classDef learning fill:#f9d4d4, font-weight:bold, font-size:14px classDef models fill:#d4f9d4, font-weight:bold, font-size:14px classDef techniques fill:#d4d4f9, font-weight:bold, font-size:14px classDef challenges fill:#f9f9d4, font-weight:bold, font-size:14px classDef future fill:#d4f9f9, font-weight:bold, font-size:14px Main["Aprendizaje auto-supervisado"] --> A["Enfoques de Aprendizaje"] Main --> B["Modelos del Mundo"] Main --> C["Técnicas y Métodos"] Main --> D["Desafíos y Limitaciones"] Main --> E["Direcciones Futuras"] A --> A1["Aprendizaje auto-supervisado: predecir partes de entrada
no etiquetadas 1"] A --> A2["El aprendizaje supervisado necesita grandes conjuntos de
datos etiquetados 2"] A --> A3["El aprendizaje por refuerzo requiere muchos ensayos 3"] A --> A4["Los humanos aprenden eficientemente con pocas
muestras 4"] A --> A5["Los bebés aprenden conceptos a través de la
interacción con el mundo 6"] A --> A6["Las redes predicen tareas en datos no
etiquetados 7"] B --> B1["Modelos del mundo clave para mejorar
IA 5"] B --> B2["RL basado en modelos acelera la adquisición de habilidades 16"] B --> B3["El control óptimo usa modelos del mundo
diferenciables 17"] B --> B4["La simulación de conducción usa datos reales
modelo 18"] B --> B5["La predicción de video maneja la incertidumbre con
latentes 19"] B --> B6["El modelo del mundo entrena la política a través de
retropropagación 22"] C --> C1["Las funciones de energía capturan dependencias de datos 10"] C --> C2["Los métodos contrastivos empujan la energía de los datos
hacia abajo 11"] C --> C3["Regularizar latentes limita el espacio de baja energía 12"] C --> C4["La codificación dispersa aprende representaciones de datos 13"] C --> C5["El predictor estima códigos dispersos óptimos 14"] C --> C6["El dropout evita que los latentes capturen demasiada
información 20"] D --> D1["Desafío de predicción de datos continuos y de alta dimensión 8"] D --> D2["Las variables latentes modelan la incertidumbre, múltiples
salidas 9"] D --> D3["Códigos dispersos de múltiples capas investigación en curso 15"] D --> D4["La curiosidad inversa evita predicciones poco fiables 23"] D --> D5["Incertidumbre en espacios continuos clave
desafío 24"] D --> D6["GANs útiles pero difíciles de
entrenar 25"] E --> E1["Agregar ruido limita la información, como
VAEs 21"] E --> E2["Buscando métodos confiables de aprendizaje de incertidumbre 26"] E --> E3["Interés renovado en RL basado en modelos a pesar de
limitaciones 27"] E --> E4["La clasificación evita la incertidumbre en la auto-supervisión 28"] E --> E5["Rompecabezas predice posiciones de parches de
imagen 29"] E --> E6["Abordar el aprendizaje de incertidumbre continua y de alta dimensión 30"] class Main main class A,A1,A2,A3,A4,A5,A6 learning class B,B1,B2,B3,B4,B5,B6 models class C,C1,C2,C3,C4,C5,C6 techniques class D,D1,D2,D3,D4,D5,D6 challenges class E,E1,E2,E3,E4,E5,E6 future

Resumen:

1.- Aprendizaje auto-supervisado: Aprender de datos no etiquetados prediciendo partes de la entrada a partir de otras partes, sin etiquetas curadas por humanos.

2.- Limitaciones del aprendizaje supervisado: Requiere grandes conjuntos de datos etiquetados, que no siempre están disponibles para todos los problemas.

3.- Ineficiencia del aprendizaje por refuerzo: Requiere muchos ensayos, impráctico para aplicaciones del mundo real como los coches autónomos.

4.- Eficiencia del aprendizaje humano: Los humanos aprenden rápidamente con pocas muestras, sugiriendo que nos falta algo en los enfoques de aprendizaje automático.

5.- Aprendizaje de modelos del mundo: La clave para mejorar la IA es aprender modelos de cómo funciona el mundo para permitir un aprendizaje eficiente.

6.- Etapas de aprendizaje de los bebés: Los bebés aprenden conceptos básicos como la permanencia del objeto y la gravedad a lo largo del tiempo a través de la interacción con el mundo.

7.- Definición de aprendizaje auto-supervisado: Entrenar grandes redes para entender el mundo a través de tareas de predicción en datos no etiquetados.

8.- Predicción bajo incertidumbre: Desafío en el aprendizaje auto-supervisado para datos continuos y de alta dimensión como imágenes o videos.

9.- Modelos de variables latentes: Usar variables adicionales para modelar la incertidumbre y generar múltiples salidas posibles.

10.- Aprendizaje basado en energía: Formular el aprendizaje auto-supervisado como el aprendizaje de funciones de energía que capturan dependencias de datos.

11.- Métodos contrastivos: Reducir la energía de los puntos de datos mientras se aumenta la energía de los puntos fuera del colector de datos.

12.- Variables latentes regularizadas: Limitar el volumen del espacio de baja energía regularizando las variables latentes.

13.- Codificación dispersa: Ejemplo temprano de sistemas de variables latentes regularizadas para aprender representaciones de datos.

14.- Descomposición dispersa predictiva: Entrenar un predictor para estimar códigos dispersos óptimos, evitando la optimización costosa.

15.- Representaciones jerárquicas: Aprender códigos dispersos de múltiples capas para datos complejos como imágenes, un área de investigación en curso.

16.- Aprendizaje por refuerzo basado en modelos: Usar modelos del mundo aprendidos para acelerar la adquisición de habilidades, especialmente en tareas motoras.

17.- Teoría del control óptimo: Enfoque clásico para el control usando modelos del mundo diferenciables, base para algunas técnicas modernas de IA.

18.- Ejemplo de conducción autónoma: Aprender a conducir en simulación usando un modelo del mundo entrenado con datos reales de conducción.

19.- Modelo de predicción de video: Red neuronal entrenada para predecir cuadros futuros en videos de conducción, manejando la incertidumbre con variables latentes.

20.- Regularizar variables latentes: Usar técnicas como el dropout para evitar que las variables latentes capturen demasiada información.

21.- Similitud con autoencoder variacional: Agregar ruido a la salida del codificador para limitar el contenido de información, similar a los VAEs.

22.- Entrenamiento de red de política: Usar el modelo del mundo aprendido para entrenar una política de conducción a través de retropropagación, sin interacción en el mundo real.

23.- Curiosidad inversa: Fomentar que el agente se mantenga en áreas donde su modelo del mundo es preciso, evitando predicciones poco fiables.

24.- Manejo de la incertidumbre en espacios continuos: Desafío técnico clave en el aprendizaje auto-supervisado para datos de alta dimensión.

25.- Limitaciones de GANs: Aunque útiles para manejar la incertidumbre, los GANs son difíciles de entrenar de manera confiable.

26.- Alternativas a GANs: Buscar métodos más confiables para aprender bajo incertidumbre en espacios de alta dimensión.

27.- Resurgimiento de RL basado en modelos: Interés renovado en el aprendizaje por refuerzo basado en modelos, a pesar de las limitaciones teóricas anteriores.

28.- Solución de clasificación: Algunos métodos auto-supervisados evitan la incertidumbre convirtiendo la predicción en tareas de clasificación.

29.- Ejemplo de rompecabezas: Tarea auto-supervisada de predecir posiciones relativas de parches de imagen, evitando la predicción a nivel de píxel.

30.- Dirección futura: Necesidad de abordar directamente el problema de aprender bajo incertidumbre en espacios continuos y de alta dimensión.

Bóveda de Conocimiento construida porDavid Vivancos 2024