Conocimiento Bóveda 2/98 - ICLR 2014-2023
Thiviyan Thanapalasingam – Emile van Krieken – Halley Young – Disha Shrivastava – Kevin Ellis – Jakub Tomczak ICLR 2023 - Taller Modelos Generativos Neurosimbólicos (NeSy-GeMs)
<Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4 | Gemini Adv | Llama 3:

Taller NeSy-GeMs
ICLR 2023
Taller de Modelos Generativos Neurosimbólicos:
combina enfoques para razonamiento, interpretabilidad. 1
Gallett: programa del taller,
logística del evento híbrido. 2
Niepert: incorporación de estructuras simbólicas,
algoritmos en ML. 3
Conocimiento del dominio en ML
para sistemas físicos. 4
Componentes algorítmicos en tuberías
ML diferenciables. 5
Descubrimiento de estructuras discretas explicativas
a partir de datos. 6
Charlas en línea: temas neurosimbólicos diversos. 7
Charlas presenciales: métodos simbólicos,
razonamiento, representaciones abstractas. 8
Tarlow: transformadores aprendiendo razonamiento,
algoritmos explícitos. 9
Componentes algorítmicos en aprendizaje profundo
para razonamiento. 10
Generación de lenguaje restringido supera
aprendizaje profundo puro. 11
Fan: ciencia cognitiva, abstracción,
modelos de comunicación. 12
Abstracciones de enlace conectan sensorial
a motor para comunicación. 13
Modelos neuro-simbólicos para la emergencia
de abstracciones simbólicas compartidas. 14
Desafíos: anclaje de símbolos, no estacionariedad,
sesgos inductivos. 15
Le: neuro-simbólico como programas probabilísticos
para generalización. 16
Compilación de inferencias amortiza inferencia
en programas probabilísticos. 17
Métodos wake-sleep efectivos pero
enfrentan desafíos. 18
DUDE: modelo neuro-simbólico para
generalización de dibujo fuera de distribución. 19
Van den Broeck: paradoja de transformadores,
desajuste de razonamiento. 20
Generación de lenguaje restringido mejora
calidad, satisfacción de restricciones. 21
Pérdida semántica entrena redes
para predicciones válidas. 22
Panel: enfoque en sesgos
inductivos, modularidad, emergencia de razonamiento. 23
Aplicaciones: síntesis de programas, modelos
generativos, escenas 3D, herramientas. 24
Modelos de lenguaje con herramientas
simbólicas: fiabilidad, riesgos, educación. 25
Evolución del razonamiento: coordinación,
restricciones. La IA puede superar. 26
Brechas: desafíos de escalado. Modelos
de lenguaje cerrando brecha. 27
Tivadar: organización de taller híbrido,
agradecimiento a contribuyentes. 28
Tivadar agradece a comité de programa,
autores, ponentes, presidentes, Slides Live. 30

Resumen:

1.-El taller de Modelos Generativos Neurosimbólicos tiene como objetivo combinar redes neuronales con enfoques simbólicos para un razonamiento más robusto, interpretabilidad y generalización fuera de distribución.

2.- Claude Gallett abrió el taller explicando el programa y la logística para el evento híbrido presencial y en línea.

3.-Matthias Niepert presentó sobre la incorporación de estructuras simbólicas discretas y algoritmos en modelos de aprendizaje automático para una mejor generalización e interpretabilidad.

4.-Incorporar conocimiento del dominio como simetrías y leyes de conservación en modelos de ML para sistemas físicos conduce a mejores resultados que el aprendizaje profundo puro.

5.-Integrar componentes algorítmicos como solucionadores de caminos más cortos en tuberías ML diferenciables de extremo a extremo permite aprender el algoritmo y los parámetros conjuntamente.

6.-Descubrir estructuras discretas explicativas a partir de datos, como en redes regulatorias de genes y EDPs, es una aplicación emocionante de la IA neurosimbólica.

7.-Las charlas en línea destacaron temas diversos como la integración de gráficos de conocimiento con modelos de lenguaje, el descubrimiento abierto de programas diversos y la generación de escenas centradas en objetos.

8.-Las charlas presenciales abarcaron métodos simbólicos para la generación de gráficos, razonamiento deductivo neurosimbólico, edición de representaciones abstractas de objetos e inferencia probabilística amortizada.

9.-Danny Tarlow discutió la paradoja de los modelos de lenguaje transformadores que aprenden a razonar a partir de datos y si el razonamiento puede emerger o requiere algoritmos explícitos.

10.-Integrar componentes algorítmicos en arquitecturas de aprendizaje profundo para el análisis de programas puede proporcionar modelos escalables que realicen razonamiento de múltiples pasos.

11.-La generación de lenguaje restringido utilizando circuitos probabilísticos tractables para guiar modelos de lenguaje autorregresivos supera los enfoques de aprendizaje profundo puro.

12.-Judy Fan presentó investigaciones en ciencia cognitiva sobre cómo las personas usan la abstracción visual y lingüística para comunicarse, y modelos computacionales de estas habilidades.

13.-Las abstracciones de enlace conectan el procesamiento sensorial con la ejecución motora para permitir comportamientos de comunicación multimodal flexibles alineados con objetivos comunicativos.

14.-Los modelos neuro-simbólicos pueden potencialmente explicar la emergencia de abstracciones simbólicas compartidas que se expanden con el tiempo a partir de arquitecturas neuronales.

15.-Los desafíos clave incluyen el problema del anclaje de símbolos, la consideración de conjuntos de símbolos no estacionarios e identificar sesgos inductivos útiles para incorporar en los modelos.

16.-Tuan Anh Le enmarcó los modelos generativos neuro-simbólicos como programas probabilísticos universales con redes neuronales y componentes simbólicos para ayudar a la generalización a partir de datos limitados.

17.-La compilación de inferencias permite amortizar la inferencia en programas probabilísticos universales al acoplar la ejecución del programa con un modelo de reconocimiento autorregresivo.

18.-Los métodos wake-sleep son efectivos para aprender los parámetros de programas probabilísticos pero enfrentan desafíos con gradientes de alta varianza y el problema de límites más estrictos.

19.-Dibujar Fuera de Distribución (DUDE) es un modelo neuro-simbólico que integra inferencia guiada por ejecución y una biblioteca de trazos que logra generalización fuera de distribución en dibujos.

20.-Guy Van den Broeck demostró una paradoja en los modelos de lenguaje transformadores que parecen "aprender a razonar" que apunta a un desajuste entre la precisión de la prueba y la verdadera capacidad de razonamiento.

21.-La generación de lenguaje restringido utilizando circuitos probabilísticos tractables para guiar modelos de lenguaje autorregresivos intractables garantiza la satisfacción de restricciones y mejora la calidad.

22.-Las funciones de pérdida semántica derivadas de restricciones lógicas y calculadas utilizando circuitos tractables pueden entrenar redes neuronales para hacer predicciones estructuradas semánticamente válidas.

23.-Discusión del panel: No hay necesidad de definiciones rígidas de "IA neuro-simbólica". El enfoque debe estar en sesgos inductivos útiles, modularidad y emergencia del razonamiento.

24.-Posibles aplicaciones: Comprensión/síntesis de programas, control de modelos generativos, comprensión de escenas 3D, herramientas de diseño, incorporación de invariantes más amplios en los modelos de manera fluida.

25.-Conectar modelos de lenguaje con herramientas simbólicas permite oportunidades como mayor fiabilidad pero también riesgos si se conectan a sistemas de toma de decisiones. Podría mejorar la educación.

26.-La evolución biológica del razonamiento probablemente impulsada por presiones funcionales para la coordinación así como restricciones físicas. La IA moderna puede superar las limitaciones cognitivas humanas.

27.-Las mayores brechas entre las pruebas de concepto neuro-simbólicas y las aplicaciones del mundo real involucran desafíos de escalado. El uso de herramientas con modelos de lenguaje está cerrando la brecha.

28.-Tivadar enfatizó el trabajo significativo requerido para organizar un taller híbrido exitoso y agradeció a todos los involucrados en hacerlo posible.

29.-El taller tenía como objetivo reunir a la comunidad para interacciones en persona después de dos años de eventos virtuales durante la pandemia.

30.-Tivadar cerró agradeciendo al comité del programa, autores, ponentes invitados, presidentes de talleres de ICLR y Slides Live por sus contribuciones cruciales al taller.

Bóveda del Conocimiento construida porDavid Vivancos 2024