Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4 | Gemini Adv | Llama 3:
Resumen:
1.-Las redes convolucionales son exitosas para imágenes y sonidos debido a la estructura de cuadrícula, las estadísticas locales y la eficiencia de parámetros.
2.-Existen limitaciones para datos no estructurados en cuadrícula como mallas 3D, espectrogramas, redes sociales y entre canales en arquitecturas estándar.
3.-El objetivo es aprender capas donde el número de parámetros sea independiente del tamaño de entrada tratando las señales como funciones en grafos.
4.-La similitud entre características puede provenir del proceso de sensado (por ejemplo, distancias en mallas 3D) o estimarse a partir de estadísticas de datos.
5.-Las redes localmente conectadas aprenden vecindarios para capturar correlación local, luego reducen la resolución del grafo y repiten, pero aún escalan con el tamaño.
6.-La convolución en grafos puede definirse a través de autovectores del Laplaciano que generalizan la base de Fourier.
7.-La convolución se define como cualquier operador lineal que conmuta con el Laplaciano, es decir, diagonal en la base de autovectores del Laplaciano.
8.-El aprendizaje de coeficientes de filtro directamente en este dominio espectral aún requiere un número de parámetros proporcional al tamaño de entrada.
9.-La analogía entre la localización espacial de señales y la suavidad de sus transformadas de Fourier sugiere aprender filtros espectrales suaves.
10.-Los filtros espectrales suaves con soporte espacial finito requieren parámetros proporcionales solo al tamaño del filtro, logrando un número de parámetros constante.
11.-El desafío es relacionar frecuencias para definir suavidad espectral; incluso el ordenamiento de frecuencias 1D funciona pero la similitud óptima es un problema abierto.
12.-Resultados preliminares en MNIST subsampleado y MNIST proyectado en esfera 3D validan el enfoque.
13.-La CNN espectral reduce parámetros en 1-2 órdenes de magnitud frente a redes completamente conectadas sin sacrificar rendimiento.
14.-Los mapas de características espectrales aprendidos son complementarios y concentran energía en diferentes regiones de entrada.
15.-Primer paso en explotar la geometría de entrada para aprender con un número de parámetros independiente del tamaño de entrada.
16.-Calcular la transformada de Fourier sigue siendo costoso en comparación con otros métodos como MFT.
17.-Necesidad de manejar grafos altamente irregulares más allá de los ejemplos simples mostrados.
18.-Cuestión abierta sobre cómo organizar óptimamente las frecuencias en el dominio dual para una localización espacial efectiva.
19.-Las simetrías y la estructura en los datos originales deben informar la asignación de parámetros en redes neuronales.
20.- Se necesita mucho más trabajo en la asignación óptima de parámetros de red explotando la estructura de entrada y las simetrías.
Bóveda del Conocimiento construida porDavid Vivancos 2024