Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4 | Gemini Adv | Llama 3:
Resumen:
1.-El aprendizaje automático ayuda a los neurocientíficos a interpretar datos cerebrales, mientras que la neurociencia proporciona antecedentes estructurales e inspiración para nuevos enfoques de aprendizaje automático.
2.-El laboratorio del ponente examinó cómo el aprendizaje profundo podría funcionar en el cerebro utilizando dendritas específicas.
3.-Esto llevó al concepto de multiplexión de conjuntos y una posible solución para cómo el cerebro realiza la asignación de crédito.
4.-El trabajo señala si las unidades de redes neuronales deberían tener estados en múltiples niveles (estados meso y micro).
5.-Esto podría habilitar el enrutamiento dinámico en redes neuronales.
6.-El procesamiento visual en la corteza mamífera procede en etapas análogas a una red neuronal convolucional multicapa.
7.-El verdadero aprendizaje profundo requiere entrenamiento de extremo a extremo para asegurar que los cambios ayuden a lograr el objetivo de aprendizaje.
8.-La solución del cerebro para la asignación de crédito no está clara ya que la retropropagación parece biológicamente irrealista.
9.-Las neuronas piramidales neocorticales tienen una estructura compleja en forma de árbol con dendritas basales y apicales que reciben diferentes entradas.
10.-Las dendritas apicales están electrotonicamente distantes del soma y pueden generar potenciales de meseta no lineales que alteran el disparo somático.
11.-Se construyó una red neuronal multicapa simulando neuronas piramidales con dendritas segregadas para la asignación de crédito.
12.-Los pesos de retroalimentación aleatoria fija funcionan debido al efecto de "alineación de retroalimentación" descrito por Lillicrap et al.
13.-La red aprendió representaciones que moldearon las capas iniciales para ayudar a las capas posteriores a categorizar dígitos de MNIST.
14.-Los potenciales de meseta en las dendritas apicales son buenos para impulsar disparos en rafaga, una señal potencialmente distinta para información de arriba hacia abajo.
15.-La multiplexión de conjuntos permite la señalización simultánea de arriba hacia abajo y de abajo hacia arriba al tratar rafagas y picos como eventos.
16.-La tasa de eventos rastrea la entrada somática de abajo hacia arriba mientras que la probabilidad de rafaga rastrea la entrada apical de arriba hacia abajo.
17.-Las interneuronas positivas para somatostatina inhiben las dendritas apicales de las células piramidales locales de las que reciben entrada, formando un microcircuito de asignación de crédito.
18.-Un modelo de conjunto incorporó este microcircuito, con el voltaje apical siendo una función de las tasas de rafaga de arriba hacia abajo y la inhibición recurrente.
19.-La probabilidad de rafaga es el sigmoide del voltaje apical, permitiendo la asignación de crédito sin pausar el cálculo.
20.-La inhibición recurrente se entrena para mantener el voltaje apical cerca de cero, previniendo gradientes que desaparecen y permitiendo más capas.
21.-El modelo de conjunto funciona tan bien como la retropropagación en MNIST y es más robusto a malas inicializaciones de pesos.
22.-Los microcircuitos neocorticales probablemente usan multiplexión de conjuntos e inhibición para la asignación de crédito y prevención de gradientes que desaparecen.
23.-Las unidades en redes neuronales podrían modelarse mejor como grupos de neuronas en lugar de neuronas individuales.
24.-La evidencia biológica apoya que los grupos de neuronas derivadas de la misma célula progenitora tienen conectividad compartida y propiedades funcionales.
25.-Modelar unidades como conjuntos de neuronas requiere diferenciar entre estados mesoscópicos (nivel de conjunto) y microscópicos (neurona individual).
26.-Múltiples microestados (neuronas específicas que disparan/rafaga) pueden corresponder al mismo mesoestado (tasas generales de eventos/rafaga).
27.-Los pesos mesoscópicos entre unidades serían una función de los pesos microscópicos entre las neuronas activas en los conjuntos.
28.-Los pesos microscópicos pueden permanecer fijos mientras que los pesos mesoscópicos cambian en base a los microestados, permitiendo el enrutamiento dinámico de información.
29.-Los pesos mesoscópicos pueden modelarse como un producto del disparo presináptico, la receptividad de entrada postsináptica y los pesos microscópicos.
30.-Aunque aún se está desarrollando, este enfoque inspirado en la neurociencia podría proporcionar un cálculo y enrutamiento dependiente del contexto poderoso en redes neuronales artificiales.
Bóveda de Conocimiento construida porDavid Vivancos 2024