Conocimiento Bóveda 2/98 - ICLR 2014-2023
Thiviyan Thanapalasingam – Emile van Krieken – Halley Young – Disha Shrivastava – Kevin Ellis – Jakub Tomczak ICLR 2023 - Taller Modelos Generativos Neurosimbólicos (NeSy-GeMs)
<Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4 | Gemini Adv | Llama 3:

graph LR classDef workshop fill:#f9d4d4, font-weight:bold, font-size:14px; classDef neurosymbolic fill:#d4f9d4, font-weight:bold, font-size:14px; classDef application fill:#d4d4f9, font-weight:bold, font-size:14px; classDef challenge fill:#f9f9d4, font-weight:bold, font-size:14px; classDef future fill:#f9d4f9, font-weight:bold, font-size:14px; A[Taller NeSy-GeMs
ICLR 2023] --> B[Taller de Modelos Generativos Neurosimbólicos:
combina enfoques para razonamiento, interpretabilidad. 1] A --> C[Gallett: programa del taller,
logística del evento híbrido. 2] A --> D[Niepert: incorporación de estructuras simbólicas,
algoritmos en ML. 3] D --> E[Conocimiento del dominio en ML
para sistemas físicos. 4] D --> F[Componentes algorítmicos en tuberías
ML diferenciables. 5] D --> G[Descubrimiento de estructuras discretas explicativas
a partir de datos. 6] A --> H[Charlas en línea: temas neurosimbólicos diversos. 7] A --> I[Charlas presenciales: métodos simbólicos,
razonamiento, representaciones abstractas. 8] A --> J[Tarlow: transformadores aprendiendo razonamiento,
algoritmos explícitos. 9] J --> K[Componentes algorítmicos en aprendizaje profundo
para razonamiento. 10] J --> L[Generación de lenguaje restringido supera
aprendizaje profundo puro. 11] A --> M[Fan: ciencia cognitiva, abstracción,
modelos de comunicación. 12] M --> N[Abstracciones de enlace conectan sensorial
a motor para comunicación. 13] M --> O[Modelos neuro-simbólicos para la emergencia
de abstracciones simbólicas compartidas. 14] M --> P[Desafíos: anclaje de símbolos, no estacionariedad,
sesgos inductivos. 15] A --> Q[Le: neuro-simbólico como programas probabilísticos
para generalización. 16] Q --> R[Compilación de inferencias amortiza inferencia
en programas probabilísticos. 17] Q --> S[Métodos wake-sleep efectivos pero
enfrentan desafíos. 18] Q --> T[DUDE: modelo neuro-simbólico para
generalización de dibujo fuera de distribución. 19] A --> U[Van den Broeck: paradoja de transformadores,
desajuste de razonamiento. 20] U --> V[Generación de lenguaje restringido mejora
calidad, satisfacción de restricciones. 21] U --> W[Pérdida semántica entrena redes
para predicciones válidas. 22] A --> X[Panel: enfoque en sesgos
inductivos, modularidad, emergencia de razonamiento. 23] A --> Y[Aplicaciones: síntesis de programas, modelos
generativos, escenas 3D, herramientas. 24] Y --> Z[Modelos de lenguaje con herramientas
simbólicas: fiabilidad, riesgos, educación. 25] A --> AA[Evolución del razonamiento: coordinación,
restricciones. La IA puede superar. 26] A --> AB[Brechas: desafíos de escalado. Modelos
de lenguaje cerrando brecha. 27] A --> AC[Tivadar: organización de taller híbrido,
agradecimiento a contribuyentes. 28] AC --> AD[Taller reúne a la comunidad
tras eventos virtuales. 29] AC --> AE[Tivadar agradece a comité de programa,
autores, ponentes, presidentes, Slides Live. 30] class A,B,C,AC,AD,AE workshop; class D,E,F,G,H,I,J,K,L,M,N,O,P,Q,R,S,T,U,V,W,X,AA neurosymbolic; class Y,Z application; class AB challenge;

Resumen:

1.-El taller de Modelos Generativos Neurosimbólicos tiene como objetivo combinar redes neuronales con enfoques simbólicos para un razonamiento más robusto, interpretabilidad y generalización fuera de distribución.

2.- Claude Gallett abrió el taller explicando el programa y la logística para el evento híbrido presencial y en línea.

3.-Matthias Niepert presentó sobre la incorporación de estructuras simbólicas discretas y algoritmos en modelos de aprendizaje automático para una mejor generalización e interpretabilidad.

4.-Incorporar conocimiento del dominio como simetrías y leyes de conservación en modelos de ML para sistemas físicos conduce a mejores resultados que el aprendizaje profundo puro.

5.-Integrar componentes algorítmicos como solucionadores de caminos más cortos en tuberías ML diferenciables de extremo a extremo permite aprender el algoritmo y los parámetros conjuntamente.

6.-Descubrir estructuras discretas explicativas a partir de datos, como en redes regulatorias de genes y EDPs, es una aplicación emocionante de la IA neurosimbólica.

7.-Las charlas en línea destacaron temas diversos como la integración de gráficos de conocimiento con modelos de lenguaje, el descubrimiento abierto de programas diversos y la generación de escenas centradas en objetos.

8.-Las charlas presenciales abarcaron métodos simbólicos para la generación de gráficos, razonamiento deductivo neurosimbólico, edición de representaciones abstractas de objetos e inferencia probabilística amortizada.

9.-Danny Tarlow discutió la paradoja de los modelos de lenguaje transformadores que aprenden a razonar a partir de datos y si el razonamiento puede emerger o requiere algoritmos explícitos.

10.-Integrar componentes algorítmicos en arquitecturas de aprendizaje profundo para el análisis de programas puede proporcionar modelos escalables que realicen razonamiento de múltiples pasos.

11.-La generación de lenguaje restringido utilizando circuitos probabilísticos tractables para guiar modelos de lenguaje autorregresivos supera los enfoques de aprendizaje profundo puro.

12.-Judy Fan presentó investigaciones en ciencia cognitiva sobre cómo las personas usan la abstracción visual y lingüística para comunicarse, y modelos computacionales de estas habilidades.

13.-Las abstracciones de enlace conectan el procesamiento sensorial con la ejecución motora para permitir comportamientos de comunicación multimodal flexibles alineados con objetivos comunicativos.

14.-Los modelos neuro-simbólicos pueden potencialmente explicar la emergencia de abstracciones simbólicas compartidas que se expanden con el tiempo a partir de arquitecturas neuronales.

15.-Los desafíos clave incluyen el problema del anclaje de símbolos, la consideración de conjuntos de símbolos no estacionarios e identificar sesgos inductivos útiles para incorporar en los modelos.

16.-Tuan Anh Le enmarcó los modelos generativos neuro-simbólicos como programas probabilísticos universales con redes neuronales y componentes simbólicos para ayudar a la generalización a partir de datos limitados.

17.-La compilación de inferencias permite amortizar la inferencia en programas probabilísticos universales al acoplar la ejecución del programa con un modelo de reconocimiento autorregresivo.

18.-Los métodos wake-sleep son efectivos para aprender los parámetros de programas probabilísticos pero enfrentan desafíos con gradientes de alta varianza y el problema de límites más estrictos.

19.-Dibujar Fuera de Distribución (DUDE) es un modelo neuro-simbólico que integra inferencia guiada por ejecución y una biblioteca de trazos que logra generalización fuera de distribución en dibujos.

20.-Guy Van den Broeck demostró una paradoja en los modelos de lenguaje transformadores que parecen "aprender a razonar" que apunta a un desajuste entre la precisión de la prueba y la verdadera capacidad de razonamiento.

21.-La generación de lenguaje restringido utilizando circuitos probabilísticos tractables para guiar modelos de lenguaje autorregresivos intractables garantiza la satisfacción de restricciones y mejora la calidad.

22.-Las funciones de pérdida semántica derivadas de restricciones lógicas y calculadas utilizando circuitos tractables pueden entrenar redes neuronales para hacer predicciones estructuradas semánticamente válidas.

23.-Discusión del panel: No hay necesidad de definiciones rígidas de "IA neuro-simbólica". El enfoque debe estar en sesgos inductivos útiles, modularidad y emergencia del razonamiento.

24.-Posibles aplicaciones: Comprensión/síntesis de programas, control de modelos generativos, comprensión de escenas 3D, herramientas de diseño, incorporación de invariantes más amplios en los modelos de manera fluida.

25.-Conectar modelos de lenguaje con herramientas simbólicas permite oportunidades como mayor fiabilidad pero también riesgos si se conectan a sistemas de toma de decisiones. Podría mejorar la educación.

26.-La evolución biológica del razonamiento probablemente impulsada por presiones funcionales para la coordinación así como restricciones físicas. La IA moderna puede superar las limitaciones cognitivas humanas.

27.-Las mayores brechas entre las pruebas de concepto neuro-simbólicas y las aplicaciones del mundo real involucran desafíos de escalado. El uso de herramientas con modelos de lenguaje está cerrando la brecha.

28.-Tivadar enfatizó el trabajo significativo requerido para organizar un taller híbrido exitoso y agradeció a todos los involucrados en hacerlo posible.

29.-El taller tenía como objetivo reunir a la comunidad para interacciones en persona después de dos años de eventos virtuales durante la pandemia.

30.-Tivadar cerró agradeciendo al comité del programa, autores, ponentes invitados, presidentes de talleres de ICLR y Slides Live por sus contribuciones cruciales al taller.

Bóveda del Conocimiento construida porDavid Vivancos 2024