Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:
Resumen:
1.- Problema de clasificación: Dadas imágenes y una consulta, clasificar imágenes por relevancia a la consulta
2.- Proceso estándar de clasificación: Recoger datos, aprender modelo de clasificación, asignar puntuaciones, ordenar muestras
3.- Evaluación de modelos de clasificación: Usar medidas de clasificación como Precisión Promedio (AP) o Ganancia Acumulada Descontada Normalizada (NDCG)
4.- Aprendizaje de parámetros del modelo: Popular usar funciones de pérdida diferenciables como pérdida cero-uno
5.- Optimizar funciones de pérdida basadas en rangos directamente puede dar mejor rendimiento pero es computacionalmente costoso
6.- Procedimiento costoso de cálculo de gradiente: Asignar puntuaciones, determinar clasificaciones candidatas, resolver problema de optimización
7.- Clasificación más violatoria: Solución óptima al problema de optimización, necesaria para cálculo eficiente del gradiente
8.- Funciones de pérdida adecuadas para QS: Funciones de pérdida basadas en rangos propicias para optimización eficiente
9.- Rango de intercalación: Número de muestras positivas precediendo a una muestra negativa
10.- Pérdida AP y pérdida NDCG son adecuadas para QS
11.- Propiedad de descomposición negativa: Pérdida descomponible aditivamente en muestras negativas
12.- Propiedad de dependencia de intercalación: Pérdida depende solo del patrón de intercalación de negativos y positivos
13.- Existen múltiples clasificaciones más violatorias posibles
14.- Estructura de ordenamiento parcial: Restricciones en rangos de intercalación basadas en puntuaciones
15.- Pasos de cálculo de gradiente: Inducir ordenamiento parcial, encontrar patrón de intercalación óptimo
16.- Algoritmo base: Ordenar completamente positivos (p log p) y negativos (n log n), encontrar intercalación (np)
17.- Algoritmo con sabor a Quicksort: Ordenar positivos (p log p), asignar negativos rango óptimo recursivamente (n log p)
18.- Muestras negativas entre aquellas con mismo rango obtienen mismo rango gratis
19.- Complejidad con sabor a Quicksort: p log p + n log p + p log n ~ n log p
20.- Complejidad base: n log n + pn, peor que con sabor a Quicksort
21.- Rendimiento empírico en clasificación de acciones Pascal: Pérdida AP/NDCG mejora rendimiento, tiempo de Quicksort comparable a pérdida cero-uno
22.- Buena escalabilidad del algoritmo Quicksort comparado con base a medida que aumenta el número de muestras
23.- Detección de objetos débilmente supervisada en Pascal VOC: Pérdida AP mejora rendimiento medio >7%
24.- Entrenamiento de modelo profundo en CIFAR-10: Pérdida AP/NDCG mejora rendimiento, Quicksort más rápido que base
25.- Optimizar pérdida basada en rango buena para rendimiento del modelo de clasificación
26.- Pero costosa de optimizar pérdida basada en rango en general
27.- Pérdidas basadas en rango adecuadas para QS permiten optimización eficiente
28.- Mejora en rendimiento sin tiempo computacional adicional
29.- Aplicabilidad a otras puntuaciones de clasificación como F-score o rango de reciprocidad media aún no explorada
30.- Enfoque asume etiquetado de verdad de terreno cero-uno, extensión a preferencias por pares no considerada
Bóveda del Conocimiento construida porDavid Vivancos 2024