Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:
Resumen:
1.- El orador trabaja para el Comité Internacional de la Cruz Roja (CICR), centándose en personas afectadas por la guerra, violencia y desastres en todo el mundo.
2.- El CICR tiene el mandato de desarrollar el derecho internacional humanitario, que regula la guerra. La IA y los datos ya han cambiado este panorama.
3.- Hay un gran potencial para que la IA contribuya a los Objetivos de Desarrollo Sostenible, pero es importante considerar los riesgos y preguntas.
4.- El CICR visita entre 700,000 y 800,000 prisioneros en todo el mundo como parte de su mandato. Al visitar, realizan entrevistas privadas para recopilar datos personales.
5.- Existe un contrato social de que el CICR tratará los datos de los prisioneros con integridad y no los compartirá sin acuerdo.
6.- Garantizar la privacidad y el control de los datos es más difícil hoy que hace 100 años, a pesar de la larga historia del CICR en la recolección de datos.
7.- Las organizaciones deben repensar cómo proteger los datos de las personas y ser conscientes de los derechos y estándares de datos, especialmente en entornos humanitarios.
8.- En los últimos años, las personas en todo el mundo, incluso en entornos complejos, están cada vez más conectadas a través de teléfonos móviles y son conscientes de la importancia de los datos.
9.- En entornos violentos, la capacidad de gestionar los propios datos puede ser una cuestión de vida o muerte. Las personas examinan la gestión de datos.
10.- El CICR está cada vez más desafiado en la gestión de datos. Las personas quieren una organización tan buena como Google en la gestión de datos de crisis privadas.
11.- La reputación del CICR por generar confianza será crítica para atraer a las personas a proporcionar datos, especialmente en situaciones inseguras.
12.- El CICR ha comenzado a usar big data y algoritmos para mejorar su capacidad de evaluar rápidamente las necesidades sobre el terreno.
13.- El análisis algorítmico de datos como tweets ha ayudado a identificar problemas como agua, saneamiento y problemas de salud para mejorar la respuesta humanitaria.
14.- Sin embargo, el CICR tuvo que reflexionar sobre qué algoritmos usar y los posibles sesgos, trabajando con académicos para construir algoritmos imparciales.
15.- Integrar principios humanitarios en el diseño de tecnología fue necesario incluso para aplicaciones relativamente simples de análisis de datos para evaluaciones de necesidades.
16.- Al considerar la IA, las organizaciones humanitarias también deben pensar en las armas utilizadas en los conflictos modernos, que cada vez involucran más tecnología.
17.- Las guerras modernas a menudo se libran con fuerzas especiales, apoderados, mercenarios, capacidades cibernéticas, drones y, cada vez más, armas autónomas.
18.- En los próximos 5-7 años, armas autónomas muy pequeñas podrían ser capaces de entrar en una habitación y seleccionar objetivos sin control humano.
19.- Estas armas podrían tomar decisiones sobre combatientes vs. no combatientes basándose en parámetros como la edad y la apariencia. El ejemplo dado fue apuntar a hombres mayores y calvos.
20.- Las armas autónomas con impacto de destrucción masiva probablemente se volverán relativamente baratas y accesibles para actores no estatales, no solo gobiernos.
21.- La pregunta clave es cuánto control humano y agencia permanecerán en el núcleo de estos sistemas de armas habilitados por IA.
22.- El CICR cree que, independientemente de los desarrollos tecnológicos, el control humano y la agencia en los sistemas de armas y las decisiones de selección de objetivos son esenciales.
23.- Las armas, como máquinas, no pueden ser legalmente responsables - solo los seres humanos pueden y deben ser responsables de las decisiones en la guerra.
24.- Mantener la responsabilidad humana en la guerra ya es difícil pero absolutamente crítico. Externalizar decisiones de matar a la IA es enormemente preocupante.
25.- El orador quiere reflexionar con la audiencia sobre qué diálogo es necesario respecto al desarrollo y gobernanza de la IA.
26.- Los estados están luchando por construir consenso y regular el desarrollo de la IA, incluso en el contexto de armas autónomas.
27.- Las preguntas clave incluyen cómo regular la IA, quién está a cargo de desarrollar entendimientos y reglas comunes.
28.- Algunos dicen que se necesita una regulación significativa y un examen de las cuestiones éticas para la IA en áreas como la atención médica que impactan a los seres humanos.
29.- El orador argumenta que, por el bien de la humanidad y los Objetivos de Desarrollo Sostenible, debemos considerar urgentemente el impacto de la IA en las personas, comenzando con las armas.
30.- En resumen, el potencial de la IA para el bien es inmenso, pero mitigar los riesgos, mantener la agencia humana y construir gobernanza es esencial.
Bóveda del Conocimiento construida porDavid Vivancos 2024