Conocimiento Bóveda 4 /27 - IA Para El Bien 2019
Comité Internacional de la Cruz Roja
Yves Daccord
< Imagen del Resumen >
Enlace al Video IA4GoodVer Video en Youtube

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef icrc fill:#d4f9d4, font-weight:bold, font-size:14px classDef dataPrivacy fill:#f9d4d4, font-weight:bold, font-size:14px classDef bigData fill:#d4d4f9, font-weight:bold, font-size:14px classDef conflictTech fill:#f9f9d4, font-weight:bold, font-size:14px classDef governance fill:#f9d4f9, font-weight:bold, font-size:14px A["Comité Internacional de la
Cruz Roja"] --> B["Trabaja para el Comité
Internacional de la Cruz Roja. 1"] A --> C["El CICR desarrolla leyes humanitarias
La IA cambió la guerra. 2"] A --> D["Potencial de la IA para los ODS,
considerar riesgos. 3"] A --> E["Visita prisioneros, realiza
entrevistas privadas. 4"] A --> F["El CICR promete privacidad de datos,
se requiere acuerdo. 5"] F --> G["Privacidad de datos más difícil hoy
a pesar de la historia. 6"] A --> H["Repensar protección de datos
en entornos humanitarios. 7"] A --> I["Personas en todo el mundo más
conscientes de los datos. 8"] A --> J["Gestión de datos crítica
en entornos violentos. 9"] A --> K["El CICR desafiado
en gestión de datos. 10"] K --> L["Confianza crucial
para recolección de datos. 11"] A --> M["Usa big data, algoritmos
para evaluar necesidades. 12"] M --> N["Analiza tweets para
respuesta humanitaria. 13"] M --> O["Reflexionar sobre sesgos de algoritmos,
imparcialidad. 14"] A --> P["Integrar principios humanitarios
en diseño de tecnología. 15"] A --> Q["La IA debe considerar
armas de conflicto moderno. 16"] Q --> R["Guerras modernas usan tecnología,
armas autónomas. 17"] Q --> S["Armas autónomas pueden atacar
sin control humano. 18"] S --> T["Tales armas toman decisiones
sobre combatientes. 19"] S --> U["Armas de destrucción masiva autónomas
accesibles a actores no estatales. 20"] A --> V["Clave: cuánto control humano
permanece. 21"] V --> W["Control humano, agencia
en armas esencial. 22"] A --> X["Solo humanos responsables
de decisiones de guerra. 23"] A --> Y["Mantener responsabilidad humana
en guerra es crítico. 24"] A --> Z["Reflexionar sobre diálogo necesario
para gobernanza de IA. 25"] Z --> AA["Estados luchan por regular IA,
armas autónomas. 26"] AA --> AB["Regular IA, desarrollar
reglas comunes desafiante. 27"] A --> AC["Necesidad de regulación ética de IA
en áreas críticas. 28"] A --> AD["Consideración urgente del impacto de IA
en personas. 29"] A --> AE["IA para el bien inmensa,
mitigar riesgos. 30"] class A,B,C,D,E,H,P,V,X,Y governance class F,G dataPrivacy class K,L bigData class Q,R,S,T,U conflictTech class Z,AA governance

Resumen:

1.- El orador trabaja para el Comité Internacional de la Cruz Roja (CICR), centándose en personas afectadas por la guerra, violencia y desastres en todo el mundo.

2.- El CICR tiene el mandato de desarrollar el derecho internacional humanitario, que regula la guerra. La IA y los datos ya han cambiado este panorama.

3.- Hay un gran potencial para que la IA contribuya a los Objetivos de Desarrollo Sostenible, pero es importante considerar los riesgos y preguntas.

4.- El CICR visita entre 700,000 y 800,000 prisioneros en todo el mundo como parte de su mandato. Al visitar, realizan entrevistas privadas para recopilar datos personales.

5.- Existe un contrato social de que el CICR tratará los datos de los prisioneros con integridad y no los compartirá sin acuerdo.

6.- Garantizar la privacidad y el control de los datos es más difícil hoy que hace 100 años, a pesar de la larga historia del CICR en la recolección de datos.

7.- Las organizaciones deben repensar cómo proteger los datos de las personas y ser conscientes de los derechos y estándares de datos, especialmente en entornos humanitarios.

8.- En los últimos años, las personas en todo el mundo, incluso en entornos complejos, están cada vez más conectadas a través de teléfonos móviles y son conscientes de la importancia de los datos.

9.- En entornos violentos, la capacidad de gestionar los propios datos puede ser una cuestión de vida o muerte. Las personas examinan la gestión de datos.

10.- El CICR está cada vez más desafiado en la gestión de datos. Las personas quieren una organización tan buena como Google en la gestión de datos de crisis privadas.

11.- La reputación del CICR por generar confianza será crítica para atraer a las personas a proporcionar datos, especialmente en situaciones inseguras.

12.- El CICR ha comenzado a usar big data y algoritmos para mejorar su capacidad de evaluar rápidamente las necesidades sobre el terreno.

13.- El análisis algorítmico de datos como tweets ha ayudado a identificar problemas como agua, saneamiento y problemas de salud para mejorar la respuesta humanitaria.

14.- Sin embargo, el CICR tuvo que reflexionar sobre qué algoritmos usar y los posibles sesgos, trabajando con académicos para construir algoritmos imparciales.

15.- Integrar principios humanitarios en el diseño de tecnología fue necesario incluso para aplicaciones relativamente simples de análisis de datos para evaluaciones de necesidades.

16.- Al considerar la IA, las organizaciones humanitarias también deben pensar en las armas utilizadas en los conflictos modernos, que cada vez involucran más tecnología.

17.- Las guerras modernas a menudo se libran con fuerzas especiales, apoderados, mercenarios, capacidades cibernéticas, drones y, cada vez más, armas autónomas.

18.- En los próximos 5-7 años, armas autónomas muy pequeñas podrían ser capaces de entrar en una habitación y seleccionar objetivos sin control humano.

19.- Estas armas podrían tomar decisiones sobre combatientes vs. no combatientes basándose en parámetros como la edad y la apariencia. El ejemplo dado fue apuntar a hombres mayores y calvos.

20.- Las armas autónomas con impacto de destrucción masiva probablemente se volverán relativamente baratas y accesibles para actores no estatales, no solo gobiernos.

21.- La pregunta clave es cuánto control humano y agencia permanecerán en el núcleo de estos sistemas de armas habilitados por IA.

22.- El CICR cree que, independientemente de los desarrollos tecnológicos, el control humano y la agencia en los sistemas de armas y las decisiones de selección de objetivos son esenciales.

23.- Las armas, como máquinas, no pueden ser legalmente responsables - solo los seres humanos pueden y deben ser responsables de las decisiones en la guerra.

24.- Mantener la responsabilidad humana en la guerra ya es difícil pero absolutamente crítico. Externalizar decisiones de matar a la IA es enormemente preocupante.

25.- El orador quiere reflexionar con la audiencia sobre qué diálogo es necesario respecto al desarrollo y gobernanza de la IA.

26.- Los estados están luchando por construir consenso y regular el desarrollo de la IA, incluso en el contexto de armas autónomas.

27.- Las preguntas clave incluyen cómo regular la IA, quién está a cargo de desarrollar entendimientos y reglas comunes.

28.- Algunos dicen que se necesita una regulación significativa y un examen de las cuestiones éticas para la IA en áreas como la atención médica que impactan a los seres humanos.

29.- El orador argumenta que, por el bien de la humanidad y los Objetivos de Desarrollo Sostenible, debemos considerar urgentemente el impacto de la IA en las personas, comenzando con las armas.

30.- En resumen, el potencial de la IA para el bien es inmenso, pero mitigar los riesgos, mantener la agencia humana y construir gobernanza es esencial.

Bóveda del Conocimiento construida porDavid Vivancos 2024