Gráfico de Conceptos & Resumen usando Claude 3.5 Sonnet | Chat GPT4o | Llama 3:
Resumen:
1.- El aprendizaje automático ha tenido éxitos espectaculares en la última década gracias a datos masivos, modelos de alta capacidad, poder de cálculo y datos IID.
2.- La suposición IID no es inocua: recomendar artículos a los usuarios constituye una intervención que deja el entorno IID.
3.- La causalidad y la correlación están conectadas: si dos variables son dependientes, debe haber una tercera que cause ambas (principio de causa común de Reichenbach).
4.- Sin suposiciones, los datos observacionales no pueden distinguir entre X->Y, Y->X y X<-Z->Y. Un modelo causal contiene más información que uno estadístico.
5.- Un modelo gráfico causal representa variables como vértices en un DAG, con flechas para causación directa. Las variables no explicadas proporcionan la aleatoriedad.
6.- Una distribución observacional hereda propiedades del gráfico causal, permitiendo inferir una clase de gráficos probando independencias condicionales en los datos.
7.- La prueba de independencia condicional se vuelve difícil para relaciones causales complejas. Con solo dos variables, no existen independencias condicionales para probar.
8.- La dirección causal puede ser identificable examinando las huellas dejadas por el mecanismo causal en la distribución observada.
9.- La independencia de causa y mecanismo puede formalizarse: log f'(X) y p(x) no están correlacionados si X->Y pero están correlacionados si Y->X.
10.- La regresión de medio hermano se utilizó para eliminar el ruido sistemático en datos astronómicos explicando cada píxel usando otros píxeles que registran diferentes estrellas.
11.- Bajo ciertas suposiciones, la regresión de Y sobre X y la resta de la estimación recupera una variable latente desconocida que afecta a X e Y hasta la expectativa.
12.- El modelo de ruido aditivo (Y=f(X)+N) hace que la dirección causal sea identificable porque un ruido no correlacionado es poco probable en la dirección anti-causal.
13.- Los datos de detección de ondas gravitacionales son muy ruidosos. Clasificar la tensión de su pasado y futuro puede resaltar anomalías como eventos reales.
14.- En ML justo, la paridad demográfica requiere que la decisión sea independiente de los atributos sensibles. Las probabilidades igualadas se condicionan en la etiqueta verdadera.
15.- La justicia puede enmarcarse causalmente: la decisión solo debe depender de los atributos sensibles a través de variables de resolución, no de variables proxy.
16.- Los condicionales causales son más propensos a ser estables a través de entornos que los anti-causales. Los ejemplos adversarios pueden surgir del aprendizaje anti-causal.
17.- Comprimir conjuntamente conjuntos de datos ajustando modelos causales puede revelar mecanismos invariantes. El verdadero SCM debe permitir la descripción más corta.
18.- Aprender un gran modelo causal en datos de multi-entorno podría encontrar componentes robustos a través de la competencia entre mecanismos que se especializan en los entornos.
19.- Una taxonomía coloca modelos causales entre modelos estadísticos y de ecuaciones diferenciales: más poderosos que los estadísticos, más aprendibles que los DE.
20.- En comparación con los animales, ML es débil en transferencia, generalización de intervenciones, utilización del tiempo y razonamiento contrafactual. La causalidad puede ayudar.
21.- Las dos primeras revoluciones industriales se referían a la energía. La actual "revolución digital", que comenzó con la cibernética, se centra en la información.
22.- La revolución industrial tuvo grandes beneficios pero también trastornos. Asumir ingenuamente que todo será positivo con la IA es imprudente.
23.- Tomó más de un siglo después de que comenzara la revolución industrial para comprender profundamente la energía. Puede que aún no comprendamos profundamente la información.
24.- La información estadística puede ser solo un epifenómeno, con dependencias realmente debidas a estructuras causales subyacentes que pueden ser asimétricas.
25.- Muchos colaboradores y estudiantes contribuyeron a los trabajos presentados. El orador les agradeció a ellos y a la audiencia por su atención.
Vault de Conocimiento construido porDavid Vivancos 2024