Gráfico de Conceptos & Resumen usando Claude 3.5 Sonnet | Chat GPT4o | Llama 3:
Resumen:
1.- Aprendizaje no supervisado: Técnica para aprender representaciones de datos secuenciales sin datos etiquetados, útil para entender la estructura en documentos como el manuscrito Voynich.
2.- Descubrimiento de unidades no supervisado: Encontrar límites y agrupar datos en el habla y la escritura para identificar caracteres o fonemas.
3.- Representación latente: Capturar información esencial de los datos de entrada en una forma más compacta y útil.
4.- Autoencoder: Red neuronal que codifica datos de entrada, luego los decodifica para reconstruir la entrada original.
5.- Autoencoder Variacional (VAE): Modelo generativo que aprende a codificar datos como distribuciones de probabilidad en el espacio latente.
6.- VAE Cuantizado Vectorial (VQVAE): Variante de VAE que utiliza representaciones latentes discretas mediante el agrupamiento de salidas del codificador.
7.- Cuello de botella: Restringir el flujo de información en un modelo para forzarlo a aprender representaciones eficientes.
8.- Modelos autorregresivos: Modelos que predicen valores futuros basándose en valores pasados, utilizados para reconstruir datos de representaciones latentes.
9.- Clasificadores de prueba: Pequeños clasificadores supervisados utilizados para analizar el contenido de información en representaciones de modelos no supervisados.
10.- Filtrado de información: Retener selectivamente información relevante (por ejemplo, fonemas) mientras se descarta información irrelevante (por ejemplo, identidad del hablante).
11.- Aprendizaje sin ejemplos: Capacidad del modelo para realizar tareas en datos no vistos o en nuevos contextos.
12.- Prior de suavidad: Suposición de que las representaciones latentes deben cambiar suavemente con el tiempo para datos secuenciales.
13.- Colapso latente: Cuando un modelo ignora las representaciones latentes y se basa únicamente en la decodificación autorregresiva.
14.- Jittering temporal: Copiar aleatoriamente vectores latentes para imponer suavidad sin causar colapso latente.
15.- Representación constante por partes: Representación latente que permanece constante dentro de unidades (por ejemplo, fonemas) y cambia abruptamente en los límites.
16.- Optimización restringida: Formular el problema de aprendizaje con restricciones para imponer propiedades deseadas en las representaciones latentes.
17.- Relajación Lagrangiana: Convertir problemas de optimización restringida en problemas no restringidos con términos de penalización.
18.- Algoritmo codicioso: Enfoque para resolver el problema de optimización restringida fusionando vectores latentes.
19.- Modelo dinámico Markoviano: Modelo probabilístico para transiciones entre estados latentes a lo largo del tiempo.
20.- Modelo de Markov Profundo Convolucional: Modelo que combina redes neuronales convolucionales con dinámica Markoviana para representaciones latentes.
21.- Inferencia variacional: Técnica para aproximar distribuciones de probabilidad complejas, utilizada en VAEs y modelos relacionados.
22.- Prior lingüístico: Incorporar conocimiento sobre la estructura del lenguaje en el aprendizaje de representaciones latentes.
23.- Codificación contrastiva: Técnica de aprendizaje que contrasta muestras relacionadas y no relacionadas para mejorar las representaciones.
24.- Maximización de Información Mutua: Enfoque para aprender representaciones maximizando la información mutua entre entradas y latentes.
25.- Wave2Vec: Técnica de aprendizaje auto-supervisado para el reconocimiento de habla.
26.- MIME-CPC: Maximización de Información Mutua y Codificación Predictiva Contrastiva, técnicas para el aprendizaje de representaciones.
27.- Pixel CNN: Modelo autorregresivo para generar imágenes píxel a píxel, utilizado en el ejemplo de generación de escritura.
28.- WaveNet: Red neuronal para generar formas de onda de audio crudo, utilizada como decodificador en modelos de habla.
29.- Reconstrucción de banco de filtros: Medida de cuán bien un modelo puede reconstruir espectrogramas de habla a partir de representaciones latentes.
30.- Información tonal: Patrones de tono en idiomas como el mandarín que llevan significado, potencialmente perdidos en algunos modelos no supervisados.
Bóveda del Conocimiento construida porDavid Vivancos 2024