Conocimiento Bóveda 6 /47 - ICML 2019
El Profundo Desconocido
Terrance Boult
< Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3.5 Sonnet | Chat GPT4o | Llama 3:

graph LR classDef main fill:#f9d4f9, font-weight:bold, font-size:14px classDef open fill:#f9d4d4, font-weight:bold, font-size:14px classDef adversarial fill:#d4f9d4, font-weight:bold, font-size:14px classDef dataset fill:#d4d4f9, font-weight:bold, font-size:14px classDef stability fill:#f9f9d4, font-weight:bold, font-size:14px classDef future fill:#d4f9f9, font-weight:bold, font-size:14px Main["El Profundo Desconocido"] --> A["Conjunto Abierto y
Robustez"] Main --> B["Ejemplos Adversariales"] Main --> C["Desplazamientos de Conjunto de Datos"] Main --> D["Estabilidad e Invariancia"] Main --> E["Direcciones Futuras"] A --> A1["La detección de categoría abierta reconoce clases
nuevas 1"] A --> A2["El conjunto abierto equilibra riesgos empíricos,
abiertos 3"] A --> A3["La robustez, la detección fuera de distribución
siguen siendo retos 9"] A --> A4["Los humanos son más robustos a las
perturbaciones adversariales 10"] A --> A5["Los entornos dinámicos inducen desplazamientos
problemáticos de conjuntos de datos 13"] A --> A6["Desplazamientos de conjuntos de datos: población,
política, cambios de medición 14"] B --> B1["Los ejemplos adversariales son un problema para el
aprendizaje profundo 2"] B --> B2["Las entradas adversariales cambian drásticamente la
predicción de los modelos 4"] B --> B3["Las representaciones internas son vulnerables a
ataques adversariales 5"] B --> B4["La causa de la vulnerabilidad adversarial sigue
siendo incierta 6"] B --> B5["Los cambios menores corrigen las
clasificaciones erróneas naturales 7"] B --> B6["ReLU infinito puede causar vulnerabilidad
adversarial 8"] C --> C1["Se prefieren enfoques proactivos para errores
costosos 15"] C --> C2["Los modelos gráficos representan desplazamientos
arbitrarios de conjuntos de datos 16"] C --> C3["Aprender modelos invariantes a desplazamientos
especificados 17"] C --> C4["Existe una jerarquía de distribuciones estables
a desplazamientos 18"] C --> C5["El algoritmo encuentra un predictor estable
invariante a desplazamientos 19"] C --> C6["Estimar, combinar distribuciones condicionales para
estabilidad 20"] D --> D1["Procedimiento: sonido, completo, óptimo para
invariancia 21"] D --> D2["La confusión no observada impide encontrar un
predictor estable 22"] D --> D3["Ejemplo de neumonía: predicción invariante al
hospital usando radiografías 23"] D --> D4["El predictor estable óptimo mejora la
poda 24"] D --> D5["Las distribuciones contrafácticas proporcionan un
mejor predictor estable 25"] D --> D6["Estimar contrafácticos es un problema abierto 26"] E --> E1["La causalidad, los modelos generativos pueden
mejorar la robustez 11"] E --> E2["Democratizar la comprensión de la fiabilidad,
robustez del ML 12"] E --> E3["Comprender el dominio, los datos, los fallos es
crítico 27"] E --> E4["Enfoque mixto para la mitigación de riesgos 28"] E --> E5["Principios de ingeniería de fiabilidad para el
aprendizaje automático 29"] E --> E6["Cambio de mentalidad necesario para el
despliegue en el mundo real 30"] class Main main class A,A1,A2,A3,A4,A5,A6 open class B,B1,B2,B3,B4,B5,B6 adversarial class C,C1,C2,C3,C4,C5,C6 dataset class D,D1,D2,D3,D4,D5,D6 stability class E,E1,E2,E3,E4,E5,E6 future

Resumen:

1.- La detección de categoría abierta es importante para que los sistemas de aprendizaje automático reconozcan clases nuevas no vistas durante el entrenamiento.

2.- Los ejemplos adversariales son un problema para los modelos de aprendizaje profundo. Las causas subyacentes aún se están investigando.

3.- El reconocimiento de conjunto abierto requiere equilibrar el riesgo empírico y el riesgo de espacio abierto, el riesgo de etiquetar entradas desconocidas como clases conocidas.

4.- Los ejemplos adversariales están imperceptiblemente cerca de las entradas reales pero cambian drásticamente la predicción del modelo. Pueden ser inevitables en altas dimensiones.

5.- Los ejemplos adversariales pueden generarse atacando las representaciones internas del modelo, no solo la capa de salida. Esto los hace más transferibles.

6.- La causa subyacente de la vulnerabilidad adversarial aún no está clara. Hipótesis como el aliasing o la dependencia de características inestables han sido descartadas.

7.- Los ejemplos adversariales ocurren de forma natural, no solo artificialmente. Pequeños cambios en la entrada pueden corregir imágenes naturales mal clasificadas.

8.- Las activaciones ReLU que tienden hacia el infinito en el espacio abierto pueden contribuir a la vulnerabilidad adversarial. Las activaciones de tienda que suben y luego bajan pueden ayudar.

9.- La robustez frente al desplazamiento de distribución y la detección fuera de distribución son retos importantes a medida que los sistemas de aprendizaje automático se despliegan en el mundo real.

10.- Los humanos son mucho más robustos a las perturbaciones adversariales que los modelos actuales de aprendizaje profundo. Imitar el procesamiento visual humano podría mejorar la robustez del modelo.

11.- La causalidad y la construcción de modelos generativos del mundo que capturan invariantes abstractos pueden ayudar a lograr una robustez similar a la humana en los sistemas de aprendizaje automático.

12.- A medida que más personas usan el aprendizaje automático, necesitamos democratizar no solo las herramientas sino también la comprensión de la fiabilidad y la robustez.

13.- Los sistemas de aprendizaje automático a menudo se despliegan en entornos dinámicos que pueden inducir desplazamientos problemáticos de conjuntos de datos que degradan el rendimiento.

14.- Ejemplos de desplazamientos problemáticos de conjuntos de datos incluyen cambios en la población, políticas de tratamiento, dispositivos de medición y más.

15.- Los enfoques reactivos al desplazamiento de conjuntos de datos, como la adaptación continua del modelo, son problemáticos cuando los errores son costosos. Se prefieren los enfoques proactivos.

16.- Los modelos gráficos proporcionan un marco intuitivo para representar desplazamientos arbitrarios de conjuntos de datos en términos de vías inestables entre variables.

17.- El objetivo es aprender modelos que sean invariantes a desplazamientos problemáticos preespecificados. Simplemente usar características estables es demasiado conservador.

18.- Existe una jerarquía de distribuciones estables a desplazamientos, desde la poda de gráficos hasta la intervención y el contrafáctico, capturando información más estable.

19.- Se presenta un algoritmo que toma datos y un gráfico causal que especifica desplazamientos y devuelve un predictor estable invariante a esos desplazamientos.

20.- El algoritmo te dice qué distribuciones condicionales estimar a partir de los datos y combinar para obtener una distribución interviniente estable.

21.- El procedimiento es sólido (garantiza invariancia a desplazamientos especificados), completo (si falla, no existe otro predictor invariante) y óptimo.

22.- La confusión no observada puede impedir encontrar un predictor estable. Medir confusores o relajar los requisitos de invariancia son posibles soluciones.

23.- Un ejemplo de predicción de neumonía ilustra el aprendizaje de un predictor invariante al departamento del hospital condicionando en características estables de radiografías.

24.- El predictor interviniente estable óptimo mejora la poda de gráficos al capturar más información estable, pero aún puede ser subóptimo.

25.- Las distribuciones contrafácticas pueden proporcionar un mejor predictor estable al mantener más vías no problemáticas, pero son más difíciles de estimar.

26.- Estimar distribuciones contrafácticas implica fijar variables problemáticas e inferir estados contrafácticos de otras, lo cual es un problema abierto.

27.- Para construir sistemas de aprendizaje automático fiables, es fundamental comprender profundamente el dominio, los datos y los modos de fallo potenciales.

28.- Desplegar el aprendizaje automático requiere un enfoque mixto cualitativo y cuantitativo para razonar proactivamente y mitigar riesgos.

29.- Los principios clave de la ingeniería de fiabilidad para el aprendizaje automático son la prevención de fallos, el monitoreo de la fiabilidad y el mantenimiento de sistemas desplegados.

30.- Se necesita un cambio de mentalidad en la investigación y práctica del aprendizaje automático para abordar seriamente estos problemas a medida que aumenta el despliegue en el mundo real.

Bóveda del Conocimiento construida porDavid Vivancos 2024