Conocimiento Bóveda 5 /37 - CVPR 2018
StarGAN: Redes Generativas Adversariales Unificadas para Traducción de Imagen a Imagen Multidominio
Yunjey Choi ; Minje Choi ; Munyoung Kim ; Jung-Woo Ha ; Sunghun Kim ; Jaegul Choo
< Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef imagetranslation fill:#f9d4d4, font-weight:bold, font-size:14px classDef stargan fill:#d4f9d4, font-weight:bold, font-size:14px classDef losses fill:#d4d4f9, font-weight:bold, font-size:14px classDef applications fill:#f9f9d4, font-weight:bold, font-size:14px classDef results fill:#f9d4f9, font-weight:bold, font-size:14px A["StarGAN: Redes Generativas
Adversariales Unificadas para
Traducción de Imagen a Imagen Multidominio"] --> B["Conversión de dominio fuente a objetivo 1"] A --> C["Traducción de múltiples dominios/atributos 2"] A --> D["Modelos separados por par de dominios 3"] A --> E["Modelo unificado multidominio 4"] E --> F["Entrada de imagen + etiqueta de dominio 5"] E --> G["Codificador-decodificador con bloques residuales 6"] A --> H["Imágenes traducidas coinciden con reales 7"] A --> I["Clasificación de dominio objetivo 8"] A --> J["Preserva contenido de entrada 9"] A --> K["Transferencia de atributos faciales en CelebA 10"] A --> L["Supera a DIAT, CycleGAN, IcGAN 11"] A --> M["Beneficios del aprendizaje multitarea 12"] M --> N["Preferido por realismo, calidad, identidad 13"] A --> O["Síntesis de expresiones faciales 14"] O --> P["Aprovecha datos de todos los dominios 15"] O --> Q["Expresiones más realistas 16"] A --> R["Modelo único vs muchos 17"] A --> S["Implementación en Pytorch disponible 18"] A --> T["Diversidad limitada en CelebA 19"] A --> U["Potencial para transferencia de estilo 20"] class B,C imagetranslation class E,F,G stargan class H,I,J losses class K,O applications class L,M,N,P,Q,R,S,T,U results

Resumen:

1.- Traducción de imagen a imagen: Convertir imágenes del dominio fuente al objetivo.

2.- Traducción multidominio: Traducción entre múltiples dominios/atributos (ej. colores de cabello).

3.- Limitaciones de trabajos previos: Modelo separado por par de dominios; no escalable.

4.- StarGAN: Modelo unificado para traducción multidominio usando un solo generador.

5.- Entradas del generador: Imagen + etiqueta de dominio objetivo. Aprende a traducir flexiblemente al dominio objetivo.

6.- Arquitectura del generador: Codificador-decodificador con bloques residuales.

7.- Pérdida adversarial: Hace que las imágenes traducidas sean indistinguibles de las reales.

8.- Pérdida de clasificación de dominio: Asegura que las imágenes traducidas se clasifiquen correctamente al dominio objetivo.

9.- Pérdida de reconstrucción: Preserva el contenido de la imagen de entrada; solo cambia las partes relacionadas con el dominio.

10.- Transferencia de atributos faciales: Traducción de atributos como color de cabello, género, edad en el conjunto de datos CelebA.

11.- Comparación con bases: StarGAN supera a DIAT, CycleGAN, IcGAN en calidad visual.

12.- Efecto del aprendizaje multitarea: StarGAN se beneficia de aprender múltiples traducciones en un modelo.

13.- Estudio de usuarios de Mechanical Turk: Los usuarios prefirieron StarGAN sobre las bases por realismo, calidad de transferencia, preservación de identidad.

14.- Síntesis de expresiones faciales: Imposición de expresión facial objetivo en la imagen facial de entrada.

15.- Efecto limitado de aumento de datos: StarGAN aprovecha los datos de todos los dominios; las bases se limitan a 2 a la vez.

16.- Error de clasificación de expresiones faciales: Más bajo para StarGAN, indicando las expresiones más realistas.

17.- Número de parámetros: StarGAN necesita solo 1 modelo; las bases necesitan muchos (DIAT: 7, CycleGAN: 14).

18.- Implementación en Pytorch disponible.

19.- Sesgo del conjunto de datos: CelebA tiene principalmente celebridades occidentales; el rendimiento cae en rostros orientales y maquillaje.

20.- Aplicabilidad más allá de los rostros: Probado en transferencia de estilo (ej. Van Gogh) pero resultados no mostrados.

Bóveda de Conocimiento construida porDavid Vivancos 2024