Conocimiento Bóveda 5 /61 - CVPR 2021
Aprendizaje No Supervisado De Cápsulas Espacio-Temporales Equivariantes
Max Welling
< Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef equivariance fill:#f9d4d4, font-weight:bold, font-size:14px classDef symmetry fill:#d4f9d4, font-weight:bold, font-size:14px classDef advantages fill:#d4d4f9, font-weight:bold, font-size:14px classDef practical fill:#f9f9d4, font-weight:bold, font-size:14px classDef applications fill:#f9d4f9, font-weight:bold, font-size:14px classDef brain fill:#d4f9f9, font-weight:bold, font-size:14px classDef quantum fill:#f9d4d4, font-weight:bold, font-size:14px A["Aprendizaje No Supervisado De
Cápsulas Espacio-Temporales Equivariantes"] --> B["Incorporar simetrías,
transformar predicciones 1"] A --> C["Simetrías físicas cruciales 2"] A --> D["Eficiencia, compartir,
desentrelazado, profundidad 3"] A --> E["Representaciones de grupos,
generadores, base 4"] A --> F["Convoluciones en
esferas, grafos 5"] F --> G["Manejar vecindarios,
invariante a rotación 6"] A --> H["Ensamblar moléculas,
mapear números 7"] A --> I["Desentrelazar posición
en cápsulas 8"] A --> J["Eliminar dependencias,
mapas topográficos 9"] J --> K["Mapas cerebrales
cuerpo, visión suavemente 10"] J --> L["Wavelets decorrelacionan,
dejan estructura 11"] A --> M["Inferir latentes,
posteriores amortizados 12"] M --> N["Decodificador físico,
modelos causales 13"] M --> O["Variables escasas,
cápsulas correlacionadas 14"] A --> P["Cambio lento,
ruido sensorial 15"] P --> Q["Activaciones de rodillo
en cápsulas 16"] A --> R["Redundancia, desentrelazado,
topografía, equivariancia 17"] R --> S["Normas de presencia,
patrones de posición 18"] A --> T["Señales continuas,
muestreo irregular 19"] T --> U["Procesos gaussianos,
incertidumbre 20"] T --> V["EDPs, muestreo
invarianza de cuadrícula 21"] A --> W["Osciladores,
medir estados 22"] W --> X["Redes neuronales cuánticas
23"] W --> Y["Excitaciones de partículas
en redes 24"] W --> Z["Cápsulas no supervisadas
se asemejan a osciladores 25"] A --> AA["Aprovechar dinámicas,
suavidad temporal 26"] A --> AB["Estructuras de equivariancia
redes 27"] A --> AC["Mapas topográficos
inspiran arquitecturas 28"] A --> AD["Impacto cuántico
a través de campos 29"] A --> AE["Aprender teoría
de información cuántica 30"] class A,B,R,S,AB equivariance class C symmetry class D,AA advantages class E,F,G,H,T,U,V practical class I,J,K,L,M,N,O,P,Q applications class AC,Z brain class W,X,Y,AD,AE quantum

Resumen:

1.- Equivariancia: Las redes neuronales pueden incorporar simetrías, permitiendo que las predicciones se transformen de manera similar a las transformaciones de entrada, inspirado por la física.

2.- Simetría en física: Las simetrías juegan un papel importante en teorías físicas como el electromagnetismo, la relatividad general y las partículas elementales.

3.- Ventajas de la equivariancia: La equivariancia permite eficiencia de datos, compartir parámetros, desentrelazar representaciones latentes y construir redes profundas.

4.- Base equivariante práctica: Especificar representaciones de grupos y generadores permite calcular una base equivariante, simplificando la implementación.

5.- Equivariancia en variedades: La equivariancia ayuda a definir convoluciones en variedades generales como esferas y grafos.

6.- Redes neuronales de grafos: Las redes neuronales de grafos equivariante manejan tamaños de vecindario arbitrarios y son equivariante a rotaciones.

7.- Flujos equivariante: Los flujos equivariante ensamblan moléculas al mapear números aleatorios a tipos de átomos, interacciones y posiciones.

8.- Desentrelazado: La equivariancia se relaciona con el desentrelazado, estructurando espacios latentes en cápsulas relativamente independientes que codifican la posición.

9.- ICA topográfico: El análisis de componentes independientes topográfico elimina dependencias de orden superior organizando filtros en mapas topográficos.

10.- Mapas topográficos cerebrales: El cerebro mapea el cuerpo y las orientaciones visuales suavemente en áreas corticales.

11.- Dependencias de orden superior: Los wavelets decorrelacionan pero dejan dependencias estructuradas en energía/volatilidad de activación.

12.- Autoencoders variacionales: Los VAEs aprenden modelos generativos infiriendo variables latentes usando posteriores aproximados amortizados.

13.- Física del decodificador: El decodificador VAE puede incorporar modelos del mundo físicos/causales, incluso simuladores.

14.- VAE topográfico: Genera variables latentes escasas a partir de activaciones y energías gaussianas, correlacionadas dentro de cápsulas.

15.- Coherencia temporal: Los conceptos del mundo de orden superior cambian lentamente en el tiempo a pesar del ruido sensorial.

16.- Modelo de secuencia: Las energías están correlacionadas a lo largo del tiempo "rodando" activaciones hacia adelante en cápsulas.

17.- Conceptos estadísticos y equivariante: La reducción de redundancia, el desentrelazado, la topografía y la equivariancia son formas relacionadas de estructurar representaciones.

18.- Presencia y posición: La presencia de objetos se codifica en normas de cápsulas, la posición en patrones de activación.

19.- Señales de imagen continuas: Las imágenes pueden verse como señales continuas muestreadas de manera irregular por píxeles o superpíxeles.

20.- Imágenes de proceso gaussiano: Los procesos gaussianos convierten muestras discretas en señales continuas con incertidumbre.

21.- EDPs y convoluciones: Las ecuaciones diferenciales parciales implementan convoluciones en el límite continuo invariantes a cuadrículas de muestreo.

22.- Teoría cuántica de campos: Los campos cuánticos son como osciladores en cada punto, midiendo para muestrear estados enteros.

23.- Redes neuronales cuánticas: Las redes neuronales pueden formularse como teorías de campos cuánticos implementables en computadoras cuánticas.

24.- Partículas de Hinton: La formulación de campos cuánticos revela excitaciones de "partículas" en redes neuronales.

25.- Cápsulas equivariante como osciladores: Las cápsulas equivariante aprendidas no supervisadas se asemejan a osciladores acoplados.

26.- Dinámicas y tiempo: Las redes neuronales deben aprovechar las dinámicas y los priors de suavidad temporal que reflejan el mundo.

27.- Estructuras matemáticas: Las teorías matemáticas profundas como la equivariancia ayudan a estructurar redes neuronales.

28.- Inspiración cerebral: Ideas de neurociencia como mapas topográficos inspiran arquitecturas de redes neuronales.

29.- Potencial de computación cuántica: Las computadoras cuánticas pueden impactar significativamente la visión por computadora a través de formulaciones de campos cuánticos.

30.- Teoría de información cuántica: Los investigadores de visión por computadora pueden beneficiarse de aprender teoría de información cuántica.

Bóveda del Conocimiento construida porDavid Vivancos 2024