Conocimiento Bóveda 6 /5 - ICML 2015
Modelado de Series Temporales Bayesianas: Representaciones Estructuradas para Escalabilidad
Emily Fox
< Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3.5 Sonnet | Chat GPT4o | Llama 3:

graph LR classDef main fill:#f9d4d4, font-weight:bold, font-size:14px classDef concepts fill:#d4f9d4, font-weight:bold, font-size:14px classDef models fill:#d4d4f9, font-weight:bold, font-size:14px classDef applications fill:#f9f9d4, font-weight:bold, font-size:14px classDef methods fill:#f9d4f9, font-weight:bold, font-size:14px classDef misc fill:#d4f9f9, font-weight:bold, font-size:14px Main["Modelado de Series Temporales
Bayesianas: Representaciones Estructuradas
para Escalabilidad"] Main --> A["Conceptos de Series Temporales"] A --> A1["Datos de series temporales: ubicuos,
desafíos de alta dimensión 1"] A --> A2["Conceptos clave: Gaussianas, HMMs,
VAR, espacio de estados 2"] A --> A3["HMMs: estados de Markov discretos,
inferencia eficiente 3"] A --> A4["VARp: combinación lineal de
retardos, ruido 4"] A --> A5["Espacio de estados: estado de Markov continuo,
Gaussiano lineal 5"] Main --> B["Modelos de Factores Latentes"] B --> B1["Modelos de factores latentes: descomposición
de covarianza de bajo rango 6"] B --> B2["Factores dinámicos: latentes de Markov,
proyecciones de alta dimensión 7"] B --> B3["Cargas evolutivas: covarianza variable en el tiempo,
factores escalables 8"] Main --> C["Aplicaciones"] C --> C1["Experimento MEG: incrustaciones variables en el tiempo
superan a otros 9"] C --> C2["Precios de casas: espacio de estados, Dirichlet
proceso de agrupamiento 10"] C --> C3["Innovaciones de agrupamiento: precios correlacionados,
predicciones mejoradas 11"] C --> C4["Índices locales: método propuesto
permite nivel de tramos 13"] C --> C5["Análisis de Seattle: centro volátil,
mejora escasa 24"] Main --> D["Métodos y Enfoques"] D --> D1["No paramétricos bayesianos: complejidad adaptativa,
crecimiento de agrupamientos 12"] D --> D2["Modelos gráficos gaussianos: independencia condicional,
inverso 14"] D --> D3["Identificabilidad: evita parametrizaciones equivalentes,
compromiso computacional 15"] D --> D4["Patrones espaciales comunes: reducción alternativa
de dimensionalidad 16"] D --> D5["Procesos gaussianos: prior flexible,
exponencial cuadrado 19"] Main --> E["Resultados y Análisis"] E --> E1["Clasificación: palabras retenidas, categoría
predicción 20"] E --> E2["Mapas de correlación: revelan procesamiento
estructura semántica 21"] E --> E3["Incrustaciones cambiantes: baja dimensión eficiente
covarianza evolutiva 22"] E --> E4["Agrupamiento de series temporales: compartición
información escasa 23"] E --> E5["Índice Case-Shiller: método propuesto
permite nivel de tramos 25"] Main --> F["Misceláneo"] F --> F1["Descanso asegura cubrir material
restante 17"] F --> F2["Partes del tutorial: relaciones, escalabilidad,
inferencias eficientes 18"] F --> F3["Enfoque bayesiano: priors, dinámicas de proceso
gaussiano 26"] F --> F4["Dificultades técnicas: Microsoft Surface
reproducción de video 27"] F --> F5["Zillow proporcionó datos, motivación
índice local 28"] F --> F6["Extensiones: núcleos espaciales, identificabilidad,
dinámicas no estacionarias 29"] F --> F7["Q&A: diccionario, estacionariedad, identificabilidad,
métodos alternativos 30"] class Main main class A,A1,A2,A3,A4,A5 concepts class B,B1,B2,B3 models class C,C1,C2,C3,C4,C5 applications class D,D1,D2,D3,D4,D5,E,E1,E2,E3,E4,E5 methods class F,F1,F2,F3,F4,F5,F6,F7 misc

Resumen:

1.- Los datos de series temporales están en todas partes, desde características de audio hasta movimiento humano e índices bursátiles. Modelar series temporales de alta dimensión presenta muchos desafíos.

2.- Conceptos clave revisados: Gaussianas multivariadas, modelos ocultos de Markov (HMMs), procesos autorregresivos vectoriales (VAR), modelos de espacio de estados.

3.- Los HMMs asumen una secuencia de estados subyacente discreta que es de Markov. Las observaciones son condicionalmente independientes dado el estado. Permite inferencia eficiente.

4.- Proceso VARp: la observación p-dimensional es una combinación lineal de p retardos más ruido. Estable si los valores propios de la matriz compañera < 1.

5.- Modelo de espacio de estados: Estado latente continuo de Markov con dinámicas gaussianas lineales. Las observaciones son condicionalmente independientes dado el estado.

6.- Modelos de factores latentes para datos IID: La covarianza tiene descomposición de bajo rango + diagonal. Asume que la incertidumbre se encuentra en un subespacio de menor dimensión.

7.- Los modelos de factores latentes dinámicos se extienden a series temporales. Los factores latentes de Markov se proyectan en observaciones de alta dimensión. Subclase de modelos de espacio de estados.

8.- La evolución de las cargas de factores a lo largo del tiempo permite capturar la estructura de covarianza variable en el tiempo. La estructura de factores en las cargas permite escalabilidad.

9.- Experimento MEG: Clasificación de respuestas cerebrales a categorías de palabras. Las incrustaciones variables en el tiempo superan a otras, probablemente debido a la captura del procesamiento semántico.

10.- Modelado de precios de casas observados escasamente mediante agrupamiento de vecindarios correlacionados. Combina modelos de espacio de estados, procesos de Dirichlet para un número desconocido de agrupamientos.

11.- El agrupamiento en innovaciones de modelos de factores permite series de precios latentes correlacionadas pero diferentes. Mejora las predicciones, especialmente para series escasas.

12.- Métodos no paramétricos bayesianos como los procesos de Dirichlet permiten que la complejidad se adapte a los datos. El número de agrupamientos crece con las observaciones.

13.- Los índices de vivienda de la industria son muy ruidosos a nivel local debido a la escasez. El método propuesto permite índices a nivel de tramo censal compartiendo información.

14.- Los modelos gráficos gaussianos capturan la independencia condicional mediante la escasez en la covarianza inversa. Más flexible que la independencia marginal.

15.- Hacer cumplir la identificabilidad en modelos de variables latentes evita explorar parametrizaciones equivalentes. Compromiso con la complejidad computacional.

16.- Los patrones espaciales comunes se mencionan como alternativa a la reducción de dimensionalidad para datos cerebrales, pero el tutorial se centra en series temporales generales.

17.- Descanso en 347 para asegurar cubrir el material restante.

18.- El tutorial cubre tres partes principales: capturar relaciones en series temporales de alta dimensión, modelado escalable e inferencia computacionalmente eficiente.

19.- Los procesos gaussianos proporcionan un prior flexible sobre la evolución de factores latentes. Se utiliza el núcleo exponencial cuadrado, aunque puede no capturar las dinámicas cerebrales esperadas.

20.- El rendimiento de clasificación se evalúa reteniendo un subconjunto de palabras y probando la predicción de categorías. El modelo variable en el tiempo supera a otros y al azar.

21.- Los mapas de correlación en diferentes puntos de tiempo revelan la emergencia de una estructura diferencial durante la ventana de procesamiento semántico, ayudando a la clasificación.

22.- Cambiar cómo se incrustan las observaciones a lo largo del tiempo permite el uso eficiente de una representación de baja dimensión para capturar la covarianza de alta dimensión en evolución.

23.- El agrupamiento de series temporales permite compartir información cuando las series individuales son escasas, por ejemplo, en datos de precios de vivienda.

24.- Datos de vivienda de Seattle analizados con el método propuesto. El centro identificado como el más volátil. Mayor mejora en tramos censales escasos.

25.- El índice de vivienda Case-Shiller es muy ruidoso a nivel de código postal, no se puede calcular a nivel de tramo censal. El método propuesto lo permite.

26.- Se adopta un enfoque bayesiano, colocando priors en todos los parámetros. Se utilizan procesos gaussianos para la dinámica de factores latentes y cargas de factores.

27.- El presentador utilizó Microsoft Surface para la presentación, causando algunas dificultades técnicas con la reproducción de video.

28.- Zillow, una compañía de vivienda con sede en Seattle, proporcionó datos y motivación para la aplicación del índice de precios de vivienda local.

29.- Varias extensiones de modelado son posibles, por ejemplo, núcleos espaciales alternativos para datos cerebrales, hacer cumplir la identificabilidad, dinámicas latentes no estacionarias.

30.- La sesión de preguntas y respuestas cubrió temas como la elección del diccionario para las cargas de factores, suposiciones de estacionariedad, identificabilidad y métodos alternativos como patrones espaciales comunes.

Bóveda del Conocimiento construida por David Vivancos 2024