Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:
Resumen:
1.- Equivariancia: Las redes neuronales pueden incorporar simetrías, permitiendo que las predicciones se transformen de manera similar a las transformaciones de entrada, inspirado por la física.
2.- Simetría en física: Las simetrías juegan un papel importante en teorías físicas como el electromagnetismo, la relatividad general y las partículas elementales.
3.- Ventajas de la equivariancia: La equivariancia permite eficiencia de datos, compartir parámetros, desentrelazar representaciones latentes y construir redes profundas.
4.- Base equivariante práctica: Especificar representaciones de grupos y generadores permite calcular una base equivariante, simplificando la implementación.
5.- Equivariancia en variedades: La equivariancia ayuda a definir convoluciones en variedades generales como esferas y grafos.
6.- Redes neuronales de grafos: Las redes neuronales de grafos equivariante manejan tamaños de vecindario arbitrarios y son equivariante a rotaciones.
7.- Flujos equivariante: Los flujos equivariante ensamblan moléculas al mapear números aleatorios a tipos de átomos, interacciones y posiciones.
8.- Desentrelazado: La equivariancia se relaciona con el desentrelazado, estructurando espacios latentes en cápsulas relativamente independientes que codifican la posición.
9.- ICA topográfico: El análisis de componentes independientes topográfico elimina dependencias de orden superior organizando filtros en mapas topográficos.
10.- Mapas topográficos cerebrales: El cerebro mapea el cuerpo y las orientaciones visuales suavemente en áreas corticales.
11.- Dependencias de orden superior: Los wavelets decorrelacionan pero dejan dependencias estructuradas en energía/volatilidad de activación.
12.- Autoencoders variacionales: Los VAEs aprenden modelos generativos infiriendo variables latentes usando posteriores aproximados amortizados.
13.- Física del decodificador: El decodificador VAE puede incorporar modelos del mundo físicos/causales, incluso simuladores.
14.- VAE topográfico: Genera variables latentes escasas a partir de activaciones y energías gaussianas, correlacionadas dentro de cápsulas.
15.- Coherencia temporal: Los conceptos del mundo de orden superior cambian lentamente en el tiempo a pesar del ruido sensorial.
16.- Modelo de secuencia: Las energías están correlacionadas a lo largo del tiempo "rodando" activaciones hacia adelante en cápsulas.
17.- Conceptos estadísticos y equivariante: La reducción de redundancia, el desentrelazado, la topografía y la equivariancia son formas relacionadas de estructurar representaciones.
18.- Presencia y posición: La presencia de objetos se codifica en normas de cápsulas, la posición en patrones de activación.
19.- Señales de imagen continuas: Las imágenes pueden verse como señales continuas muestreadas de manera irregular por píxeles o superpíxeles.
20.- Imágenes de proceso gaussiano: Los procesos gaussianos convierten muestras discretas en señales continuas con incertidumbre.
21.- EDPs y convoluciones: Las ecuaciones diferenciales parciales implementan convoluciones en el límite continuo invariantes a cuadrículas de muestreo.
22.- Teoría cuántica de campos: Los campos cuánticos son como osciladores en cada punto, midiendo para muestrear estados enteros.
23.- Redes neuronales cuánticas: Las redes neuronales pueden formularse como teorías de campos cuánticos implementables en computadoras cuánticas.
24.- Partículas de Hinton: La formulación de campos cuánticos revela excitaciones de "partículas" en redes neuronales.
25.- Cápsulas equivariante como osciladores: Las cápsulas equivariante aprendidas no supervisadas se asemejan a osciladores acoplados.
26.- Dinámicas y tiempo: Las redes neuronales deben aprovechar las dinámicas y los priors de suavidad temporal que reflejan el mundo.
27.- Estructuras matemáticas: Las teorías matemáticas profundas como la equivariancia ayudan a estructurar redes neuronales.
28.- Inspiración cerebral: Ideas de neurociencia como mapas topográficos inspiran arquitecturas de redes neuronales.
29.- Potencial de computación cuántica: Las computadoras cuánticas pueden impactar significativamente la visión por computadora a través de formulaciones de campos cuánticos.
30.- Teoría de información cuántica: Los investigadores de visión por computadora pueden beneficiarse de aprender teoría de información cuántica.
Bóveda del Conocimiento construida porDavid Vivancos 2024