Conocimiento Bóveda 6 /81 - ICML 2023
Tomando el Pulso del ML Ético en Salud
Marzyeh Ghassemi
< Imagen del Resumen >

Gráfico de Conceptos & Resumen usando Claude 3.5 Sonnet | Chat GPT4o | Llama 3:

graph LR classDef ethical fill:#f9d4d4, font-weight:bold, font-size:14px classDef biases fill:#d4f9d4, font-weight:bold, font-size:14px classDef interaction fill:#d4d4f9, font-weight:bold, font-size:14px classDef regulation fill:#f9f9d4, font-weight:bold, font-size:14px A["Tomando el Pulso
del ML Ético
en Salud"] --> B["IA Ética
AI"] A --> C["Sesgos
y
Disparidades"] A --> D["Interacción
Humano-IA"] A --> E["Regulación
y
Enfoques"] B --> B1["IA Ética:
Abordar sesgos,
equidad, seguridad. 1"] B --> B2["Modelos de triaje:
Priorizar pacientes,
equilibrar eficiencia. 2"] B --> B3["Error humano:
Eventos adversos
evitables, diagnósticos erróneos. 3"] B --> B4["Limitaciones de RCT:
Aplicabilidad limitada,
poblaciones diversas. 4"] C --> C1["Sesgos de IA:
Perpetuar, amplificar
sesgos existentes. 5"] C --> C2["Sesgo racial:
IA detecta raza
de imágenes. 6"] C --> C3["Sesgos de modelos de lenguaje:
Produce notas clínicas
sesgadas. 7"] C --> C4["Recolección de datos:
Sesgos, representación
en conjuntos de datos. 8"] C --> C5["Prácticas de etiquetado:
Inducen brechas de medición
y sesgos. 9"] C --> C6["Incrustaciones sesgadas:
Modelos preentrenados
perpetúan sesgos. 11"] D --> D1["Interacción Humano-IA:
Afecta decisiones de
clínicos y pacientes. 17"] D --> D2["IA explicable:
Explicaciones post-hoc,
nuevos sesgos. 18"] D --> D3["Confianza en IA:
Personas confían en
consejos de IA defectuosos. 19"] D --> D4["Sesgos de género:
Género médico-paciente
impacta resultados. 22"] D --> D5["Disparidades raciales:
Medidas preventivas,
raza compartida. 23"] D --> D6["Discriminación:
Atención deficiente para
ciertas demografías. 24"] E --> E1["Marcos regulatorios:
Estructuras de supervisión
gubernamental. 21"] E --> E2["Lecciones de aviación:
Retroalimentación, auditoría,
capacitación. 20"] E --> E3["Personalización vs.
empeoramiento:
Demografías empeoran rendimiento. 25"] E --> E4["Compromisos privacidad-utilidad:
Privacidad diferencial,
sesgos. 28"] E --> E5["Algoritmos estables:
Reducir compromisos
en modelos de IA. 29"] E --> E6["Enfoque interdisciplinario:
ML, salud,
ciencias sociales. 30"] class A,B,B1,B2,B3,B4 ethical class C,C1,C2,C3,C4,C5,C6 biases class D,D1,D2,D3,D4,D5 interaction class E,E1,E2,E3,E4,E5,E6 regulation

Resumen:

1.- IA Ética en salud: Desarrollo de modelos de aprendizaje automático para aplicaciones médicas abordando sesgos, equidad y preocupaciones de seguridad.

2.- Modelos de triaje: Sistemas de IA para priorizar pacientes en salas de emergencia, equilibrando eficiencia con posibles sesgos.

3.- Error humano en salud: Tasas significativas de eventos adversos evitables y diagnósticos erróneos en la práctica médica actual.

4.- Limitaciones de ensayos controlados aleatorios: Solo el 10-20% de los tratamientos se basan en ECA, con aplicabilidad limitada a poblaciones diversas.

5.- Sesgos en modelos de IA: Los modelos de aprendizaje automático pueden perpetuar y amplificar sesgos existentes en datos y prácticas de salud.

6.- Sesgo racial en imágenes: Los modelos de IA pueden detectar la raza autoinformada a partir de imágenes médicas, generando preocupaciones sobre posible discriminación.

7.- Sesgos en modelos de lenguaje: Los modelos de generación de texto de IA pueden producir contenido sesgado en notas clínicas, reforzando estereotipos.

8.- Desafíos en la recolección de datos: Importancia de considerar sesgos y representación en conjuntos de datos de salud utilizados para el entrenamiento de IA.

9.- Prácticas de etiquetado: Los métodos estándar de etiquetado de datos pueden inducir brechas de medición y sesgos en modelos de IA.

10.- Datos normativos vs. descriptivos: Recopilar datos para el contexto específico de aplicación puede mejorar el rendimiento y la equidad del modelo.

11.- Incrustaciones sesgadas: Los modelos preentrenados pueden perpetuar sesgos incluso cuando las tareas posteriores utilizan datos equilibrados.

12.- Atributos demográficos en predicción: Incluir características demográficas en modelos puede a veces empeorar el rendimiento para subgrupos específicos.

13.- Auditorías de uso justo: Evaluación sistemática de cómo las características demográficas impactan el rendimiento del modelo en diferentes grupos.

14.- Optimización de listas de verificación de soporte de decisiones: Desarrollo de listas de verificación clínicas justas y efectivas utilizando programación entera mixta.

15.- Cambios en la distribución: Desafíos en el despliegue de modelos en diferentes entornos de salud con poblaciones de pacientes variables.

16.- Atribución causal de cambios: Uso de teoría de juegos para identificar fuentes de caídas de rendimiento al desplegar modelos en nuevos entornos.

17.- Interacción Humano-IA: Considerar cómo se presentan las recomendaciones del modelo a clínicos y pacientes afecta la toma de decisiones.

18.- Limitaciones de IA explicable: Las explicaciones post-hoc de modelos de caja negra pueden a veces introducir nuevos sesgos o reducir el rendimiento.

19.- Confianza en sistemas de IA: Las personas tienden a confiar en consejos de IA incluso cuando son claramente defectuosos, resaltando la necesidad de un despliegue cuidadoso.

20.- Lecciones de seguridad en aviación: Aplicación de principios de retroalimentación sistemática, auditoría y capacitación de la aviación a la IA en salud.

21.- Marcos regulatorios: Propuesta de estructuras para la supervisión gubernamental y regulación de sistemas de IA en salud.

22.- Sesgos de género en salud: Diferencias en resultados de pacientes basadas en la concordancia de género médico-paciente.

23.- Disparidades raciales en atención: Mejora de medidas preventivas cuando pacientes y médicos comparten la misma raza.

24.- Discriminación en salud: Tasas más altas de atención de mala calidad para ciertos grupos demográficos, como mujeres musulmanas en servicios de maternidad.

25.- Personalización vs. "empeoramiento": Instancias donde incluir información demográfica puede empeorar el rendimiento del modelo para individuos.

26.- Desafíos de interpretación a nivel individual: Dificultades para proporcionar explicaciones personalizadas de las predicciones de modelos de IA a pacientes.

27.- Regulación de actualizaciones de modelos: Equilibrio entre la necesidad de mejoras en el modelo y preocupaciones de seguridad en sistemas de IA en salud desplegados.

28.- Compromisos privacidad-utilidad: Desafíos en la aplicación de técnicas de privacidad diferencial a datos de salud sin introducir nuevos sesgos.

29.- Algoritmos de aprendizaje estables: Desarrollo de métodos para reducir compromisos extremos entre privacidad, utilidad y estabilidad en modelos de IA.

30.- Enfoque interdisciplinario: Combinación de conocimientos de aprendizaje automático, salud, ciencias sociales y otros campos para abordar desafíos éticos de IA.

Bóveda del Conocimiento construida porDavid Vivancos 2024