Conocimiento Bóveda 6 /28 - ICML 2017
La Robustez Se Encuentra con los Algoritmos (y Viceversa)
Ankur Moitra
< Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3.5 Sonnet | Chat GPT4o | Llama 3:

graph LR classDef supervised fill:#f9d4d4, font-weight:bold, font-size:14px classDef interactive fill:#d4f9d4, font-weight:bold, font-size:14px classDef contextual fill:#d4d4f9, font-weight:bold, font-size:14px classDef algorithms fill:#f9f9d4, font-weight:bold, font-size:14px classDef practical fill:#f9d4f9, font-weight:bold, font-size:14px Main["La Robustez Se Encuentra con los Algoritmos
y Viceversa"] Main --> A["El aprendizaje supervisado ignora
datos valiosos de interacción 1"] Main --> B["El aprendizaje interactivo aprovecha
datos de interacción 2"] B --> C["El algoritmo aprende de
características, acciones, recompensas 3"] B --> D["RL completo: dominios especiales,
grandes muestras 4"] Main --> E["Bandidos contextuales: señal correcta,
manejar no estacionariedad 5"] E --> F["Se adapta a problemas del mundo real:
recomendaciones, anuncios, educación 6"] E --> G["Tutorial: algoritmos, teoría,
evaluación, exploración 7"] E --> H["Observar características, elegir
acción, recibir recompensa 8"] H --> I["Las políticas mapean características
a acciones 9"] H --> J["Evaluación offline usando
puntuación de propensión inversa 10"] Main --> K["Aprendizaje offline: clasificación
multiclase ponderada por importancia 11"] K --> L["Algoritmos de exploración: epsilon-greedy,
muestreo de Thompson 12"] K --> M["Validación progresiva para
evaluación offline imparcial 13"] K --> N["El muestreo de rechazo evalúa
el bucle completo de interacción 14"] Main --> O["Modos de falla: probabilidades
desajustadas, no estacionariedad 15"] O --> P["Sistemas de aprendizaje necesarios:
modulares, escalables, generales 16"] P --> Q["Servicio de Decisiones: sistema
de bandido contextual de código abierto 17"] P --> R["Otros sistemas: NEXT,
StreamingBandit, diferentes capacidades 18"] Main --> S["No estacionariedad: problema clave
que requiere técnicas especiales 19"] S --> T["Acciones combinatorias necesitan
semi-bandidos, enfoques de submodularidad 20"] S --> U["Especificación de recompensas crítica,
mapear objetivos a proxies 21"] S --> V["Codificación inteligente reduce
varianza, mejora eficiencia 22"] Main --> W["Existen recetas viables
para escenarios comunes 23"] W --> X["Estudio de caso de Complex.com:
beneficios sustanciales del mundo real 24"] W --> Y["La validación offline permite
evaluación rápida 25"] W --> Z["Los bandidos contextuales son aptos
para consumo amplio 26"] Main --> AA["Investigación necesaria: algoritmos automáticos,
expansión de RL 27"] AA --> AB["Bandidos contextuales: fiables,
robustos para aplicaciones 28"] AB --> AC["Ejemplo: personalizar escritura basada en EEG
para discapacitados 29"] AB --> AD["La investigación se benefició
de muchos colaboradores 30"] class A,B,C,D supervised class E,F,G,H,I,J contextual class K,L,M,N algorithms class O,P,Q,R,S,T,U,V practical class W,X,Y,Z,AA,AB,AC,AD interactive

Resumen:

1.- La robustez puede significar diferentes cosas en diferentes contextos. Esta charla explora la robustez en el diseño de algoritmos para problemas de alta dimensión.

2.- En la estimación de parámetros robustos en 1D, la mediana y la desviación absoluta de la mediana son más robustas que la media y la varianza.

3.- En altas dimensiones, surge un compromiso entre las garantías de robustez demostrables y la viabilidad computacional de los algoritmos de estimación.

4.- Una receta general para la estimación robusta de alta dimensión: 1) Encontrar buena distancia de parámetros 2) Detectar corrupciones 3) Crear algoritmo ganar-ganar

5.- Para la estimación robusta de la media con covarianza=I, usar la media empírica pero detectar corrupciones en el segundo momento. Filtrar y repetir.

6.- Para la estimación robusta de la covarianza, observar la estructura del tensor del cuarto momento para detectar corrupciones en la covarianza empírica.

7.- Se puede obtener un error independiente de la dimensión de ε*polylog(1/ε) para estimar robustamente la media y la covarianza de Gauss en tiempo polinómico.

8.- Los límites inferiores de consulta estadística muestran que se necesita un error de ε*√log(1/ε) para una estimación robusta de Gauss computacionalmente eficiente.

9.- Con más del 50% de corrupciones, todavía se puede hacer una estimación robusta de la media de Gauss al generar una lista pequeña que contenga una buena estimación.

10.- Combinar la escasez con suposiciones de robustez mejora la complejidad de la muestra a logarítmica en la dimensión para la estimación robusta de la media escasa.

11.- Los algoritmos de estimación robusta de Gauss, a pesar de las suposiciones distribucionales, pueden ayudar con el análisis exploratorio de datos en conjuntos de datos reales.

12.- El modelo de bloque estocástico genera gráficos con estructura de comunidad plantada basada en probabilidades de borde dentro de la comunidad y entre comunidades.

13.- Muchos algoritmos resuelven la recuperación parcial en el modelo de bloque estocástico cuando a-b^2 > 2(a+b). Esto se conjeturó como óptimo.

14.- La propagación de creencias y las técnicas de física estadística predicen el umbral a-b^2 > 2(a+b) en el modelo de bloque estocástico.

15.- El umbral a-b^2 > 2(a+b) se demostró ajustado para el modelo de bloque estocástico. Las relajaciones convexas no lo igualan.

16.- Los modelos semi-aleatorios permiten cambios "útiles" en el modelo de bloque estocástico, por ejemplo, fortaleciendo los bordes dentro de la comunidad y debilitando los bordes entre comunidades.

17.- Algoritmos simples como el conteo de vecinos comunes fallan en modelos semi-aleatorios debido a los cambios permitidos en la probabilidad de borde.

18.- Los algoritmos que igualan el umbral a-b^2 > 2(a+b) fallan en modelos semi-aleatorios. El umbral teórico de información aumenta.

19.- Los programas semidefinidos todavía resuelven la recuperación parcial en modelos semi-aleatorios, sacrificando agudeza pero ganando robustez en comparación con la propagación de creencias.

20.- El modelo de árbol de transmisión captura la estructura local del modelo de bloque estocástico. Tiene un umbral de recuperación agudo.

21.- Límite de Kesten-Stigum: En el modelo de árbol de transmisión, el color de la raíz es recuperable si a-b^2 > 2(a+b). El algoritmo óptimo es la mayoría.

22.- En un modelo de árbol de transmisión semi-aleatorio que permite cambios "útiles", el límite de Kesten-Stigum y la reconstrucción de mayoría se descomponen.

23.- La mayoría recursiva todavía funciona en el modelo de árbol de transmisión semi-aleatorio, mostrando un compromiso entre robustez y agudeza.

24.- Estudiar modelos semi-aleatorios proporciona información sobre qué algoritmos están sobreajustados exactamente a las suposiciones distribucionales de los modelos de caso promedio.

25.- Los modelos semi-aleatorios son una forma de "probar" las garantías algorítmicas de caso promedio al agregar desviaciones realistas al modelo.

26.- La completación de matrices es el problema de recuperar una matriz de bajo rango a partir de observaciones escasas. Dos enfoques principales: relajación convexa y minimización alterna.

27.- La relajación convexa para la completación de matrices es más robusta ante un adversario que revela entradas adicionales. La minimización alterna se descompone.

28.- Ninguna noción de robustez es universalmente apropiada. Estudiar diferentes modelos de robustez proporciona información sobre algoritmos.

29.- Una pregunta abierta es obtener algoritmos de completación de matrices con los beneficios computacionales de la minimización alterna y la robustez de la relajación convexa.

30.- Investigar nociones apropiadas de robustez para problemas en algoritmos y aprendizaje automático es una dirección de investigación prometedora.

Bóveda de Conocimiento construida porDavid Vivancos 2024