Conocimiento Bóveda 4 /10 - IA Para El Bien 2017
Hoja de Ruta Futura – Colaborando para el Bien
Stuart Russell et al.
< Imagen de Resumen >
Enlace al Video IA4GoodVer Video en Youtube

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef social fill:#d3f4ff, font-weight:bold, font-size:12px classDef risks fill:#ffd3e0, font-weight:bold, font-size:12px classDef ethical fill:#d3ffd4, font-weight:bold, font-size:12px classDef governance fill:#fff3d3, font-weight:bold, font-size:12px classDef inequality fill:#f3d3ff, font-weight:bold, font-size:12px classDef collaboration fill:#f9f9d4, font-weight:bold, font-size:12px A["Hoja de Ruta Futura
Colaborando para el Bien"] A --> B["IA para el bien social,
existen riesgos. 1"] B --> C["IA superando rápidamente
decisiones humanas. 2"] C --> D["IA ayuda a los ODS,
necesita principios éticos. 3"] D --> E["Japón: hoja de ruta de IA
para la Sociedad 5.0. 4"] E --> F["UNICRI: equilibrio entre riesgos
y beneficios de la IA. 5"] A --> G["IA mapea riesgos de salud,
posible mal uso. 6"] G --> H["Robots autónomos piden
ayuda humana. 7"] H --> I["Riesgos de IA: desinformación,
malware, armas autónomas. 8"] A --> J["Acelerar IA beneficiosa
para los ODS, mitigar riesgos. 9"] J --> K["Transparencia, explicabilidad
desafíos, desconfianza pública. 10"] K --> L["Mostrar valor de IA,
riesgos para la confianza. 11"] A --> M["UNICEF: IA para
mapear la desnutrición. 12"] M --> N["Meta: IA acelera
descubrimiento científico, ODS. 13"] N --> O["IA para monitorear
actividades ilegales. 14"] A --> P["Marco de derechos humanos
para beneficios y riesgos de IA. 15"] P --> Q["IA enfrenta complejidad de regímenes,
ritmo, fragmentación. 16"] Q --> R["Soluciones propuestas: plataforma de
conocimiento, gobernanza adaptativa. 17"] A --> S["IA puede aumentar
desigualdades globales. 18"] S --> T["IA podría aumentar
desequilibrios de poder tecnológico y de datos. 19"] T --> U["Derechos futuros de IA
una cuestión filosófica. 20"] A --> V["Impactos geopolíticos y económicos
de IA poco claros. 21"] V --> W["Asegurar cumplimiento de
regulación global de IA. 22"] W --> X["Impactos de ganador-se-lo-lleva-todo
pueden fijar desigualdades. 23"] A --> Y["IA sin restricciones por
valores humanos, mal utilizada. 24"] Y --> Z["Incorporar valores humanos
compartidos en IA. 25"] Z --> AA["IA de doble uso podría
ser destructiva. 26"] A --> AB["Moldear desarrollo de IA ahora
se necesita hoja de ruta. 27"] AB --> AC["Diálogos multi-actores
esenciales para colaboración en IA. 28"] A --> AD["IA debe centrarse
en los pobres globales. 29"] AD --> AE["Desafíos globales: equidad,
derechos, gobernanza, justicia. 30"] class B,C,D,E,F social class G,H,I risks class J,K,L ethical class M,N,O social class P,Q,R governance class S,T,U inequality class V,W,X governance class Y,Z,AA ethical class AB,AC collaboration class AD,AE collaboration

Resumen:

1.- La IA puede ser utilizada para el bien social pero también plantea riesgos que deben abordarse proactivamente a través de la colaboración.

2.- La IA está avanzando rápidamente y probablemente superará las capacidades de toma de decisiones humanas en muchos dominios en el futuro cercano.

3.- La IA tiene el potencial de ayudar a lograr los ODS y transformar la sociedad, pero debe adherirse a principios de empoderamiento y "no hacer daño".

4.- Japón desarrolló una hoja de ruta de industrialización de IA equilibrando el avance económico y la resolución de problemas sociales para realizar la "Sociedad 5.0".

5.- UNICRI cree que los riesgos y beneficios de la IA deben equilibrarse a través de la cooperación internacional entre los sectores público, privado y académico.

6.- La IA podría ayudar a mapear riesgos de salud basados en factores ambientales, pero dicha información también podría ser mal utilizada.

7.- Los robots móviles están ganando autonomía pero aún tienen limitaciones; emerge un nuevo paradigma de robots que piden proactivamente ayuda a los humanos cuando es necesario.

8.- Los riesgos potenciales de la IA incluyen la manipulación del entorno informativo, ataques de malware, armas autónomas letales, desplazamiento laboral. Las soluciones requieren colaboración global.

9.- Se necesita una hoja de ruta para acelerar la IA beneficiosa para los ODS mientras se mitigan los riesgos. Se proponen financiamiento, desarrollo de capacidades, capacitación ética y mecanismos de supervisión.

10.- La transparencia y explicabilidad de los sistemas de IA es un gran desafío. El público carece de confianza en la tecnología.

11.- Se necesitan proyectos de demostración que muestren tanto el valor como los riesgos de la IA de manera comprensible para abordar el problema de la confianza pública.

12.- UNICEF invierte en IA y otras tecnologías de vanguardia a través de un fondo de riesgo y las aplica a desafíos de desarrollo como mapear la desnutrición.

13.- Meta (Iniciativa Chan Zuckerberg) tiene como objetivo usar la IA para acelerar el descubrimiento científico y la innovación que sustentan soluciones para los ODS.

14.- La IA se está aplicando para el bien social y ambiental en áreas como la vigilancia de la pesca ilegal, la caza furtiva y el tráfico humano.

15.- Los derechos humanos pueden proporcionar un marco para navegar los beneficios y riesgos de la IA. La participación de las personas afectadas es clave.

16.- El desarrollo de la IA enfrenta desafíos de complejidad de regímenes (muchos interesados), ritmo (la tecnología avanza más rápido que la gobernanza), fragmentación de esfuerzos.

17.- Soluciones propuestas: 1) Plataforma global de conocimiento sobre impactos de la IA 2) Gobernanza adaptativa que permita ambigüedad 3) Rediseño del proceso de innovación.

18.- Pregunta abierta si la IA aumentará las desigualdades globales, por ejemplo, a través de publicidad dirigida que exacerba comportamientos poco saludables en poblaciones vulnerables.

19.- Preocupación si la IA aumentará los desequilibrios de poder entre quienes tienen la tecnología y los datos y quienes no los tienen.

20.- Difícil cuestión filosófica planteada sobre los posibles derechos futuros de las IAs si se vuelven muy avanzadas.

21.- Impactos geopolíticos y económicos de la IA en el comercio global poco claros. Se propone la idea de la IA como una zona económica especial.

22.- Difícil asegurar que las regulaciones de IA se sigan en todo el mundo, puede requerir un mayor empoderamiento de instituciones de gobernanza global como la ONU.

23.- Riesgo de impactos exponenciales de 'ganador-se-lo-lleva-todo' de la IA que fijen desigualdades para individuos, organizaciones, países que la adopten primero.

24.- Desafío fundamental de que la IA no está restringida por valores humanos, podría ser hackeada/mal utilizada a gran escala de maneras destructivas.

25.- Necesidad de una mejor incorporación de valores humanos compartidos en el desarrollo de la IA, no solo incentivos a corto plazo. Requiere colaboración sin precedentes.

26.- La IA es una tecnología de doble uso; actores malintencionados podrían utilizarla a través de fronteras para propósitos destructivos, socavando la gobernanza tradicional.

27.- Oportunidad de moldear la IA mientras aún se está desarrollando; se necesita una hoja de ruta y colaboración para dirigirla hacia fines beneficiosos.

28.- Diálogos continuos de múltiples partes interesadas esenciales para resolver desafíos y parámetros de colaboración en IA a medida que la tecnología evoluciona rápidamente.

29.- La IA y las TIC4D deben centrarse proactivamente en los pobres globales y abordar las asimetrías. Más de 500 millones de niños enfrentan desnutrición y potencial perdido.

30.- La IA está emergiendo en un momento de grandes desafíos globales en torno a la equidad, derechos, gobernanza. La equidad y responsabilidad algorítmica son primordiales.

Bóveda del Conocimiento construida porDavid Vivancos 2024