Conocimiento Bóveda 2/24 - ICLR 2014-2023
Neil Lawrence ICLR 2016 - Conferencia - Más Allá de la Retropropagación: Propagación de la Incertidumbre
<Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4 | Gemini Adv | Llama 3:

graph LR classDef mackay fill:#f9d4d4, font-weight:bold, font-size:14px; classDef machinelearning fill:#d4f9d4, font-weight:bold, font-size:14px; classDef gaussianprocesses fill:#d4d4f9, font-weight:bold, font-size:14px; classDef deeplearning fill:#f9f9d4, font-weight:bold, font-size:14px; classDef latentmodels fill:#f9d4f9, font-weight:bold, font-size:14px; classDef resources fill:#d4f9f9, font-weight:bold, font-size:14px; A["Neil Lawrence
ICLR 2016"] --> B["Mackay inspirador
falleció de cáncer. 1"] B --> C["Mackay revolucionó
el aprendizaje automático. 2"] A --> D["Orador: plataformas petrolíferas a
estudiante de doctorado. 3"] C --> E["Mackay introdujo priors
sobre pesos de NN. 4"] C --> F["Procesos gaussianos resolvieron
problemas de NN entonces. 5"] A --> G["Explosión de datos avanzó
aprendizaje profundo rápidamente. 6"] A --> H["Procesos gaussianos: priors
sobre funciones directamente. 7"] H --> I["Procesos gaussianos, NNs
conectados bajo condiciones. 8"] H --> J["Procesos gaussianos destacan
en datos pequeños. 9"] H --> K["Procesos gaussianos modelan
malaria en Uganda. 10"] H --> L["Procesos gaussianos infieren
niveles de proteínas. 11"] H --> M["Mackay: ¿Procesos gaussianos
sólo máquinas de suavizado? 12"] A --> N["Aprendizaje profundo compone
funciones diferenciables. 13"] A --> O["Inferencia bayesiana: priors,
posteriores, predicciones. 14"] A --> P["Inferencia variacional aproxima
posteriores intratables. 15"] H --> Q["Inferencia de procesos gaussianos
difícil, hecha tratable. 16"] H --> R["Aproximaciones escasas escalan
procesos gaussianos. 17"] H --> S["Componer procesos gaussianos
desafiante, límites permiten. 18"] S --> T["Procesos gaussianos profundos
componen con incertidumbre. 19"] T --> U["Procesos gaussianos profundos
evitan sobreajuste. 20"] A --> V["Modelos de variables latentes
representan observaciones de alta D. 21"] V --> W["Mackay pionero en redes neuronales
para latentes no supervisados. 22"] V --> X["Latentes de procesos gaussianos
extraen estructura de baja D. 23"] X --> Y["Latentes de procesos gaussianos
en capas aprenden jerarquías. 24"] Y --> Z["Empresa escalando modelos
de procesos gaussianos en capas. 25"] Z --> AA["Nuevas aproximaciones reducen
problemas numéricos al escalar. 26"] V --> AB["Objetivo: 'salud profunda'
modelos de medicina personalizada. 27"] A --> AC["Recursos disponibles:
escuelas, tutoriales, software. 28"] A --> AD["Investigación reciente: RNNs,
autoencoders variacionales. 29"] A --> AE["Orador inspirado por
Mackay, lamenta pérdida. 30"] class A,B,AE mackay; class C,D,E,F,N,O,P,W machinelearning; class G,H,I,J,K,L,M,Q,R,S,T,U gaussianprocesses; class V,X,Y,Z,AA,AB latentmodels; class AC resources; class AD deeplearning;

Resumen:

1.-David Mackay fue una figura inspiradora que falleció de cáncer a los 49 años, dejando atrás una familia joven.

2.-Mackay revolucionó el aprendizaje automático y la teoría de la información. Se celebró un simposio antes de su muerte para honrar su amplia influencia.

3.-El orador trabajó en plataformas petrolíferas implementando redes neuronales antes de convertirse en estudiante de doctorado. Las redes neuronales son funciones que aproximan sumas ponderadas.

4.-Mackay introdujo priors sobre los pesos en redes neuronales, convirtiéndolas en clases de funciones. La decaimiento de pesos implementa esta idea.

5.-Con datos limitados en esa época, los procesos gaussianos parecían resolver muchos problemas de aprendizaje automático que las redes neuronales intentaban abordar.

6.-La explosión de datos digitales en áreas como visión, habla, lenguaje permitió que los métodos de aprendizaje profundo avanzaran rápidamente y lograran resultados impresionantes.

7.-Los procesos gaussianos toman un enfoque de modelado diferente - colocando priors sobre funciones directamente. Las funciones de covarianza relacionan entradas con covarianzas.

8.-Los procesos gaussianos y las redes neuronales están conectados - a medida que aumentan las capas ocultas, las redes neuronales convergen a procesos gaussianos bajo ciertas condiciones.

9.-Para conjuntos de datos pequeños, los procesos gaussianos a menudo superan a otros métodos. Proporcionan buenas estimaciones de incertidumbre para tareas como la optimización bayesiana.

10.-Los procesos gaussianos se han aplicado para modelar la propagación de la malaria en Uganda, infiriendo informes faltantes. La visualización es clave para el impacto.

11.-Los procesos gaussianos pueden inferir niveles de proteínas no observados en redes regulatorias genéticas colocando priors en la dinámica como ecuaciones diferenciales.

12.-A pesar de su poder, Mackay notó que los procesos gaussianos son solo máquinas de suavizado sofisticadas, cuestionando si "tiramos al bebé con el agua del baño."

13.-El aprendizaje profundo compone funciones diferenciables para aprender representaciones. Propagar gradientes a través de la composición es clave para optimizarlas.

14.-La inferencia bayesiana implica especificar distribuciones previas, calcular distribuciones posteriores sobre parámetros y hacer predicciones marginalizando el posterior.

15.-La inferencia variacional aproxima posteriores intratables con distribuciones más simples, convirtiendo la integración en problemas de optimización. Ofrece entrenamiento probabilístico de redes neuronales.

16.-La inferencia de procesos gaussianos es difícil debido a los priors en funciones de dimensión infinita. Las aproximaciones variacionales y la aumentación la hacen tratable.

17.-Las aproximaciones escasas permiten que los procesos gaussianos escalen a grandes conjuntos de datos. Los parámetros aumentan para ajustar un límite inferior en la verosimilitud marginal.

18.-Componer procesos gaussianos para hacer modelos profundos es desafiante debido a la intratabilidad de la integral resultante. Los límites variacionales lo permiten.

19.-Los procesos gaussianos profundos ofrecen una forma de componer procesos estocásticos manteniendo la incertidumbre. La teoría puede ayudar a entender cómo funciona el aprendizaje profundo.

20.-En conjuntos de datos pequeños, los procesos gaussianos profundos pueden evitar el sobreajuste tanto como los superficiales mientras aumentan la flexibilidad.

21.-Los modelos de variables latentes representan observaciones de alta dimensión a través de variables no observadas de baja dimensión. Los datos de captura de movimiento demuestran este concepto.

22.-Mackay fue pionero en el uso de redes neuronales para modelos de variables latentes no supervisados a través de redes de densidad, pero los datos limitados restringieron su efectividad entonces.

23.-Los modelos de variables latentes de procesos gaussianos pueden extraer estructuras significativas de baja dimensión e incluso inferir la dimensionalidad latente necesaria a partir de pocos datos.

24.-Los modelos de variables latentes de procesos gaussianos en capas aplicados a escritura a mano y captura de movimiento buscan aprender representaciones jerárquicas y abstractas.

25.-Escalar modelos de procesos gaussianos en capas es un desafío clave que se está abordando formando una empresa para desarrollarlos más.

26.-Nuevas aproximaciones de la empresa reducen problemas numéricos al escalar estos modelos, mostrando resultados prometedores en comparación con enfoques anteriores.

27.-El objetivo final es "salud profunda" - integrar todos los aspectos de los datos de salud de un individuo en modelos comprensivos para medicina personalizada.

28.-Hay recursos educativos disponibles para aprender más sobre los procesos gaussianos, incluyendo una escuela de verano, tutorial y software de código abierto.

29.-La investigación reciente extiende los procesos gaussianos a arquitecturas de redes neuronales recurrentes e introduce autoencoders variacionales con priors de procesos gaussianos profundos.

30.-El orador atribuye su dirección de investigación e inspiración a la influencia de Mackay, lamentando la pérdida de la presencia continua de Mackay para su familia.

Bóveda del Conocimiento construida porDavid Vivancos 2024