Conocimiento Bóveda 5 /65 - CVPR 2021
Computación de Equilibrio y Aprendizaje Profundo
Constantinos Daskalakis
< Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef challenges fill:#f9d4d4, font-weight:bold, font-size:14px classDef equilibrium fill:#d4f9d4, font-weight:bold, font-size:14px classDef convex fill:#d4d4f9, font-weight:bold, font-size:14px classDef nonconvex fill:#f9f9d4, font-weight:bold, font-size:14px classDef multiagent fill:#f9d4f9, font-weight:bold, font-size:14px A["Computación de Equilibrio y
Aprendizaje Profundo"] --> B["Computación de equilibrio, aprendizaje profundo
desafíos, oportunidades. 1"] A --> C["Modelos de ML sobresalen en juegos difíciles,
luchan en juegos multi-agente. 2"] C --> D["Descenso de gradiente lucha por converger
en entornos multi-agente. 3"] D --> E["Charla: problemas de descenso de gradiente
en profundidad en entornos multi-agente. 4"] E --> F["Descenso ascendente de gradiente falla en
juegos simples de suma cero de 2 agentes. 5"] A --> G["Enfoque: entornos multi-agente, cada uno
minimizando el objetivo dependiente de otros. 6"] G --> H["Convexidad de los objetivos de los agentes crucial
para equilibrios, viabilidad. 7"] H --> I["Min-max clásico convexo-cóncavo: no
mucho más difícil que minimización convexa. 8"] I --> J["Problemas modernos no convexos no cóncavos
min-max difieren. 8"] I --> K["Descenso de gradiente oscila en
juegos convexos-cóncavos. 9"] K --> L["Charla: ¿oscilaciones removibles
o debido a inviabilidad? 9"] H --> M["Juegos convexos: momento negativo
elimina oscilaciones, converge. 10"] H --> N["Juegos convexos de suma general: aprendizaje sin remordimientos
converge más rápido con momento negativo. 11"] J --> O["Juegos no convexos: min-max local
vs complejidad mínima local. 12"] O --> P["Métodos de primer orden encuentran aproximación
mínima local no convexa eficientemente. 13"] O --> Q["Complejidad de equilibrio min-max local
en no convexos no cóncavos no clara. 13"] Q --> R["Computar min-max local no convexo no cóncavo
exponencialmente difícil. 14"] J --> S["Juegos min-min: función disminuye
a lo largo de caminos de mejor respuesta. 15"] S --> T["Juegos min-max: función puede
ciclar a lo largo de caminos de mejor respuesta. 15"] T --> U["Caminos de mejor respuesta min-max no dan
información de ubicación de min-max local. 16"] J --> V["Variante del lema de Sperner entiende
topología de equilibrios min-max locales. 17"] V --> W["Argumento de camino dirigido prueba
variante del lema de Sperner. 18"] J --> X["Cálculo de min-max local equivalente
a instancias de Sperner con cuadrados coloreados. 19"] X --> Y["Equivalencia deriva método de segundo orden
convergente globalmente a min-max local. 20"] J --> Z["Reducción de Sperner a min-max local
prueba completitud PPAD. 21"] Z --> AA["Min-max local, Brouwer, Nash convexo
son completos PPAD. 22"] AA --> AB["Completitud PPAD: métodos de primer orden
inviables en tiempo exponencial. 23"] C --> AC["Aprendizaje profundo multi-agente necesita
más experiencia que el de un solo agente. 24"] J --> AD["Charla: intractabilidad de min-max local
en juegos no convexos. Quedan preguntas abiertas. 25"] AD --> AE["Identificar métodos asintóticamente convergentes,
potencialmente rápidos en la práctica. 26"] AD --> AF["Identificar juegos estructurados que permitan
convergencia rápida a equilibrios locales. 27"] C --> AG["Estructura de RL de suma cero de dos jugadores
explotable para computación de equilibrio. 28"] C --> AH["Estudiar RL multi-agente enfocándose en
equilibrios correlacionados, sin remordimientos. 29"] J --> AI["Juegos no convexos: perspectiva de desigualdades variacionales
Métodos de gradiente pueden resolver algunos. 30"] class A,B,C,D,E,F challenges class G,H,I,K,L,M,N equilibrium class J,O,P,Q,R,S,T,U,V,W,X,Y,Z,AA,AB,AD,AE,AF,AI nonconvex class AC,AG,AH multiagent

Resumen:

1.- Desafíos y oportunidades en la intersección de la computación de equilibrio y el aprendizaje profundo.

2.- Los modelos de aprendizaje automático pueden vencer a los humanos en juegos difíciles pero tienen dificultades en juegos más simples con múltiples agentes.

3.- El descenso de gradiente tiene dificultades para converger en entornos multi-agente, incluso en problemas simples de min-max convexo-cóncavo.

4.- La charla investiga cuán profundos son los problemas con el descenso de gradiente en entornos multi-agente.

5.- El descenso ascendente de gradiente no logra converger incluso en juegos simples de suma cero de 2 agentes con variables escalares y objetivos convexos-cóncavos conocidos.

6.- El enfoque está en entornos con múltiples agentes, cada uno minimizando un objetivo dependiente de las acciones de otros. La teoría de juegos ofrece conceptos de solución.

7.- La convexidad de los objetivos de los agentes es importante para la existencia de equilibrios y la viabilidad de ciertos conceptos de solución.

8.- Los problemas clásicos de min-max convexo-cóncavo no son mucho más difíciles que los problemas de minimización convexa. Los problemas modernos de min-max no convexos no cóncavos son diferentes.

9.- El descenso de gradiente exhibe oscilaciones en juegos convexos-cóncavos. La charla investiga si pueden ser eliminadas o son debido a inviabilidad.

10.- En juegos convexos, los métodos de optimización con momento negativo eliminan las oscilaciones y logran la convergencia en el último iterado al equilibrio min-max.

11.- En juegos convexos de suma general, el aprendizaje sin remordimientos con momento negativo logra una convergencia más rápida a equilibrios correlacionados.

12.- En juegos no convexos, la charla compara la complejidad del cálculo del equilibrio min-max local con la del cálculo mínimo local.

13.- Los métodos de primer orden encuentran aproximaciones mínimas locales de funciones no convexas de manera eficiente. La complejidad del equilibrio min-max local no está clara.

14.- Computar el equilibrio min-max local en juegos no convexos no cóncavos es exponencialmente difícil para los métodos de primer orden, incluso con pequeña localidad.

15.- El valor de la función disminuye a lo largo de los caminos de mejor respuesta en juegos min-min, proporcionando progreso. En juegos min-max, puede ciclar.

16.- Consultar el valor de la función a lo largo de los caminos de mejor respuesta en juegos min-max no proporciona información sobre la ubicación del equilibrio min-max local.

17.- Se utiliza una variante del lema de Sperner para entender la estructura topológica de los equilibrios min-max locales en juegos no convexos no cóncavos.

18.- El argumento de camino dirigido prueba la variante del lema de Sperner, revelando un argumento de existencia combinatoria en su núcleo.

19.- El cálculo del equilibrio min-max local es computacionalmente equivalente a encontrar cuadrados bien coloreados en instancias de Sperner.

20.- La equivalencia puede ser aprovechada para derivar un método de segundo orden con convergencia global a equilibrios min-max locales.

21.- La reducción de Sperner al cálculo del equilibrio min-max local establece la completitud PPAD de este último.

22.- El equilibrio min-max local, el punto fijo de Brouwer y el equilibrio de Nash en juegos convexos son todos completos PPAD.

23.- La completitud PPAD se convierte en resultados de inviabilidad en tiempo exponencial de caja negra para métodos de primer orden.

24.- El aprendizaje profundo multi-agente requerirá más experiencia en el dominio que el caso de un solo agente, que se basa en el descenso de gradiente.

25.- La charla describe resultados de inviabilidad para equilibrios min-max locales en juegos no convexos. Quedan muchas preguntas abiertas.

26.- Identificar métodos asintóticamente convergentes que sean potencialmente rápidos en la práctica para instancias de interés.

27.- Identificar juegos estructurados que eviten la inviabilidad y permitan una rápida convergencia a equilibrios locales.

28.- Los juegos estocásticos de RL de suma cero de dos jugadores tienen una estructura que podría ser explotada para el cálculo de equilibrio.

29.- Estudiar RL multi-agente enfocándose en conceptos de equilibrio como equilibrios correlacionados, equilibrios correlacionados gruesos o aprendizaje sin remordimientos.

30.- Los juegos no convexos pueden ser estudiados desde la perspectiva de desigualdades variacionales. Los métodos de gradiente pueden resolver ciertas desigualdades variacionales no monótonas.

Bóveda de Conocimiento construida porDavid Vivancos 2024