Conocimiento Bóveda 4 /26 - IA Para El Bien 2019
Hacia la transparencia en IA: métodos y desafíos
Timnit Gebru
< Imagen de Resumen >
Enlace al Video de IA4GoodVer Video en Youtube

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef gebru fill:#d4f9d4, font-weight:bold, font-size:14px classDef data fill:#f9d4d4, font-weight:bold, font-size:14px classDef bias fill:#d4d4f9, font-weight:bold, font-size:14px classDef diversity fill:#f9f9d4, font-weight:bold, font-size:14px classDef community fill:#f9d4f9, font-weight:bold, font-size:14px A["Hacia la transparencia en
IA: métodos y
desafíos"] --> B["Predecir demografía usando
imágenes de Street View. 1"] A --> C["Datos públicos beneficiosos
pero problemáticos. 2"] A --> D["Algoritmos de predicción de crímenes
aumentan el sesgo. 3"] A --> E["Algoritmos predictivos no son robustos
para situaciones críticas. 4"] A --> F["Errores de traducción de IA
pueden causar daño. 5"] A --> G["Reconocimiento facial no regulado
por las fuerzas del orden. 6"] G --> H["Preguntas clave: uso y
precisión del reconocimiento facial. 7"] A --> I["Tasas de error altas para
mujeres de piel oscura. 8"] I --> J["Conjunto de datos equilibrado creado
para mejor precisión. 9"] A --> K["Tipo de piel usado sobre
raza en investigación. 10"] A --> L["Importancia de antecedentes
diversos de investigadores. 11"] A --> M["Llamadas a regulación de análisis facial
desde la investigación. 12"] A --> N["La tecnología apunta a grupos
vulnerables injustamente. 13"] N --> O["Vendedores de herramientas de análisis facial
omiten grupos vulnerables. 14"] A --> P["Falta de diversidad
en el desarrollo de IA. 15"] P --> Q["Rekognition de Amazon mostró
sesgos similares. 16"] A --> R["Gebru cofundó Black in AI
para problemas estructurales. 17"] A --> S["No hay leyes que restrinjan
el uso de APIs de IA defectuosas. 18"] A --> T["San Francisco prohibió
el reconocimiento facial gubernamental. 19"] A --> U["Conjuntos de datos de IA necesitan documentación
como otras industrias. 20"] A --> V["Algunas herramientas de IA son dañinas
para ciertos grupos. 21"] A --> W["Propuestas de Hojas de Datos para Conjuntos de Datos,
Tarjetas de Modelos. 22"] A --> X["El sesgo en IA entra
en cada etapa. 23"] A --> Y["¿Para quién funciona la IA,
a quién perjudica? 24"] A --> Z["Los problemas de investigación dependen
de quién los formula. 25"] A --> AA["Empoderar proyectos locales
para soluciones relevantes. 26"] A --> AB["Evitar la investigación paracaidista,
centrar voces comunitarias. 27"] A --> AC["Centrar comunidades afectadas
para ciencia ética. 28"] A --> AD["Las comunidades deben tener
voz central en IA. 29"] A --> AE["La ética de IA debe priorizar
voces afectadas. 30"] class A,B,C,D,E,F,G,H,I,J,K,L,M,N,O,P,Q,R,S,T,U,V,W,X,Y,Z,AA,AB,AC,AD,AE gebru class D,I,O bias class R diversity class AA,AB,AC,AD,AE community

Resumen:

1.- Gebru utilizó imágenes de Google Street View para predecir demografía como educación, patrones de votación y segregación de ingresos en ciudades de EE.UU.

2.- Los datos disponibles públicamente utilizados para análisis predictivos pueden ser beneficiosos pero también problemáticos si no se consideran cuidadosamente.

3.- Los algoritmos de predicción de crímenes entrenados con datos policiales sesgados pueden exacerbar los sesgos e inequidades sociales a través de bucles de retroalimentación descontrolados.

4.- Actualmente se utilizan algoritmos predictivos en escenarios de alto riesgo como la evaluación de inmigración, pero las herramientas de IA no son lo suficientemente robustas para esto.

5.- Facebook tradujo incorrectamente un post árabe de "buenos días", lo que llevó al arresto injusto de alguien, mostrando errores costosos en la traducción de IA.

6.- Gebru analiza cómo el reconocimiento facial es utilizado por las fuerzas del orden de manera no regulada, con la mitad de los adultos de EE.UU. en bases de datos.

7.- Dos preguntas clave: ¿debería usarse el reconocimiento facial de esta manera y son las herramientas actuales de IA lo suficientemente precisas para usos de alto riesgo?

8.- Gebru y Joy Buolamwini encontraron que las tasas de error en el análisis facial se acercaban al azar para mujeres de piel más oscura, desempeñándose peor en este grupo.

9.- Esto ocurrió porque los conjuntos de datos de entrenamiento estaban abrumadoramente compuestos por hombres de piel más clara, por lo que crearon un conjunto de datos más equilibrado.

10.- La raza es un constructo social inestable; se utilizó el tipo de piel en su lugar como una característica más significativa en su investigación de análisis facial.

11.- Es importante traer antecedentes diversos de investigadores; Gebru y Buolamwini, como mujeres negras, entendieron los impactos del colorismo.

12.- Su artículo llevó a llamados para la regulación de herramientas de análisis facial y reacción de las empresas. Las lecciones incluyeron:

13.- Los investigadores no pueden ignorar los problemas sociales; los grupos vulnerables son a menudo injustamente atacados por la tecnología.

14.- Los grupos que venden herramientas de análisis facial a las fuerzas del orden rara vez incluyen poblaciones vulnerables sujetas a la tecnología.

15.- Las conferencias de aprendizaje automático carecen abrumadoramente de mujeres y minorías; quienes desarrollan la tecnología deben representar el mundo que impacta.

16.- Un seguimiento mostró que Rekognition de Amazon tenía sesgos de tipo de piel similares; el autor principal casi dejó el campo debido a la discriminación hasta encontrar Black in AI.

17.- Gebru cofundó Black in AI para abordar problemas estructurales en el campo, aunque no era su enfoque de investigación original.

18.- No hay leyes que restrinjan el uso de APIs de IA; el sistema de traducción defectuoso puede usarse en escenarios de alto riesgo sin supervisión.

19.- San Francisco recientemente prohibió el uso gubernamental de reconocimiento facial, pero faltan regulaciones y estándares comprensivos.

20.- Otras industrias tienen estándares/hojas de datos que especifican casos de uso ideales y limitaciones; los conjuntos de datos y modelos de IA necesitan documentación similar.

21.- Algunas herramientas de IA como los clasificadores de género pueden ser inherentemente dañinas para grupos como las personas transgénero y no deberían existir.

22.- El equipo de Gebru propuso "Hojas de Datos para Conjuntos de Datos" y "Tarjetas de Modelos" para documentar características de conjuntos de datos y modelos, sesgos, usos apropiados.

23.- El sesgo entra en la IA en cada etapa: formulación del problema, recopilación de datos, arquitectura del modelo, análisis de impacto de implementación.

24.- Las preguntas de "funcionamiento de la IA" dependen de "para quién"--por ejemplo, si los clasificadores de género "funcionan" pero dañan a las personas trans.

25.- Los problemas perseguidos dependen de quién los formula; Gebru está analizando la evolución del apartheid espacial en Sudáfrica a través de imágenes satelitales.

26.- Los colegas africanos fueron empoderados para impulsar proyectos localmente relevantes como el monitoreo de enfermedades de la yuca cuando se les dieron recursos y agencia.

27.- Esto contrasta con la "investigación paracaidista/helicóptero" donde los forasteros explotan datos/conocimientos comunitarios sin centrar sus voces o proporcionar beneficios recíprocos.

28.- Centrar las comunidades afectadas hace una ciencia mejor y más ética que los enfoques extractivos.

29.- A medida que la IA se utiliza para el bien social, las comunidades impactadas deben tener una voz central en el proceso.

30.- Asimismo, en la ética de la IA, las voces de aquellos afectados por la tecnología deben estar al frente.

Bóveda de Conocimiento construida porDavid Vivancos 2024