Conocimiento Bóveda 2/54 - ICLR 2014-2023
Ian Goodfellow ICLR 2019 - Charla Invitada - Aprendizaje Automático Adversarial
<Imagen del Resumen>

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4 | Gemini Adv | Llama 3:

graph LR classDef adversarial fill:#f9d4d4, font-weight:bold, font-size:14px; classDef gans fill:#d4f9d4, font-weight:bold, font-size:14px; classDef applications fill:#d4d4f9, font-weight:bold, font-size:14px; classDef robustness fill:#f9f9d4, font-weight:bold, font-size:14px; classDef efficiency fill:#f9d4f9, font-weight:bold, font-size:14px; A[Ian Goodfellow
ICLR 2019] --> B[ML Adversarial: teoría de juegos,
costos competitivos, equilibrio de Nash 1] A --> C[GANs: generar muestras,
juego minimax generador-discriminador 2] C --> D[GANs: mejora rápida,
imágenes complejas de alta calidad 3] C --> E[GANs: traducción de imágenes sin
ejemplos emparejados 4] C --> F[GANs: generación de video coherente
temporalmente, transferencia de baile 5] C --> G[GANs: generación de imágenes realistas
sin habilidades fotorrealistas 6] C --> H[GANs: aplicaciones físicas,
coronas dentales 3D, moda 7] C --> I[GANs: escalado, transferencia de estilo,
supervisión reducida 8] A --> J[ML Seguro: robustez ante
ejemplos adversariales, IID violado 9] J --> K[Entrenamiento adversarial: modelo de atacante
equilibrio, defensa clave actual 10] A --> L[Optimización basada en modelos: desafiante
debido a ejemplos adversariales 11] L --> M[Optimización basada en modelos: diseñado
genes/proteínas, potencial médico 12] A --> N[RL: auto-juego adversarial,
históricamente y en AlphaGo 13] N --> O[RL: juegos no simétricos,
produciendo efectos secundarios útiles 14] N --> P[Ejemplos adversariales RL:
perturbando cuadros de Atari 15] N --> Q[RL: aprendizaje de recompensas tipo GAN,
especificando tareas complejas 16] A --> R[Fiabilidad extrema: excediendo
99% de precisión, enfoque en el peor caso 17] R --> S[Las curvas del peor caso pueden permitir
garantías de robustez demostrables 18] R --> T[Verificación de robustez adversarial
aplicada al control del tráfico aéreo 19] A --> U[Eficiencia de etiquetas crucial,
etiquetado costoso o riesgoso 20] U --> V[GANs semi-supervisados aprovechan
datos no etiquetados, mejoran eficiencia 21] class A,B adversarial; class C,D,E,F,G,H,I gans; class J,K,R,S,T robustness; class L,M,N,O,P,Q applications; class U,V efficiency;

Resumen:

1.-El aprendizaje automático adversarial utiliza la teoría de juegos en lugar de solo optimización. Los jugadores tienen costos competitivos y buscan un equilibrio de Nash.

2.-Las Redes Generativas Adversariales (GANs) generan nuevas muestras de una distribución de datos mediante un juego minimax entre generador y discriminador.

3.-Las GANs han mejorado rápidamente desde 2014 para generar imágenes de alta calidad y alta resolución a partir de conjuntos de datos complejos como ImageNet.

4.-La traducción de imágenes no supervisada con GANs, como convertir escenas de día a noche, es posible sin ejemplos emparejados.

5.-Las GANs de generación de video pueden crear videos temporalmente coherentes, por ejemplo, transfiriendo movimientos de baile entre personas.

6.-Las GANs permiten la creatividad en la generación de imágenes realistas sin requerir habilidades artísticas fotorrealistas, mediante mapas semánticos etiquetados.

7.-Las GANs están comenzando a tener aplicaciones en el mundo físico como coronas dentales impresas en 3D. El diseño de moda es una posibilidad futura.

8.-Los avances recientes de GAN incluyen escalar modelos, incorporar transferencia de estilo y reducir la supervisión a ~10% de datos etiquetados.

9.-Para el aprendizaje automático seguro, los modelos deben ser robustos cuando la suposición IID es violada por ejemplos adversariales de un atacante.

10.-El entrenamiento adversarial, encontrando un equilibrio entre atacante y modelo, es una defensa clave actual contra ejemplos adversariales.

11.-La optimización basada en modelos, por ejemplo, maximizando la predicción de un modelo sustituto aprendido, es desafiante debido a ejemplos adversariales pero tiene potencial.

12.-La optimización basada en modelos ha diseñado genes/proteínas que se unen bien en simulación. Las aplicaciones médicas en el mundo real pueden seguir.

13.-El aprendizaje por refuerzo siempre ha involucrado auto-juego adversarial, por ejemplo, el agente de damas de Arthur Samuel en los años 50.

14.-El auto-juego en el aprendizaje por refuerzo sigue siendo importante en sistemas como AlphaGo, pero los juegos no simétricos y la producción de efectos secundarios útiles son enfoques recientes clave.

15.-Existen ejemplos adversariales para el aprendizaje por refuerzo, por ejemplo, perturbando cuadros de Atari para degradar el rendimiento del agente unos pasos más tarde.

16.-Aprender funciones de recompensa con modelos tipo GAN puede ayudar a especificar tareas complejas de aprendizaje por refuerzo, por ejemplo, un robot pintando caracteres específicos.

17.-La fiabilidad extrema necesita más que la precisión actual de ~99% del aprendizaje automático. El enfoque en el peor caso del aprendizaje automático adversarial puede ayudar, como en sistemas distribuidos robustos.

18.-Analizar las curvas de rendimiento en el peor caso puede permitir garantías de robustez demostrables que superen el rendimiento promedio observado.

19.-Las herramientas de verificación originalmente para probar la robustez adversarial se están aplicando a sistemas prácticos como el control del tráfico aéreo.

20.-Mejorar la eficiencia de las etiquetas es crucial ya que el etiquetado suele ser costoso o riesgoso, por ejemplo, en el cuidado de la salud.

21.-Las GANs semi-supervisadas con un discriminador clasificador pueden aprovechar datos no etiquetados para mejorar la eficiencia de las muestras.

Bóveda del Conocimiento construida porDavid Vivancos 2024