Conocimiento Bóveda 4 /52 - IA Para Bien 2020
IA Beneficiosa para Avanzar los ODS
Stuart Russell
< Imagen del Resumen >
Enlace al Video IA4GoodVer Video en Youtube

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef shift fill:#f9d4d4, font-weight:bold, font-size:14px classDef potential fill:#d4f9d4, font-weight:bold, font-size:14px classDef progress fill:#d4d4f9, font-weight:bold, font-size:14px classDef prob fill:#f9f9d4, font-weight:bold, font-size:14px classDef misuse fill:#f9d4f9, font-weight:bold, font-size:14px classDef future fill:#d4d4f4, font-weight:bold, font-size:14px A["IA Beneficiosa para
Avanzar los ODS"] --> B["Cambiar IA
de objetivos fijos. 1"] A --> C["Colaboración IA
muestra potencial
más allá de las películas. 2"] A --> D["Progreso IA,
pero con limitaciones. 3"] A --> E["La programación probabilística permite
modelado universal. 4"] A --> F["IA para reenfocar en
conocimiento, razonamiento. 5"] A --> G["Abordar el mal uso de IA:
reconocimiento, vigilancia. 6"] B --> H["Nuevo modelo:
IA incierta
sobre preferencias. 11"] H --> I["La teoría de la elección social ayuda
a abordar conflictos. 12"] H --> J["Entender el vínculo comportamiento-preferencias
a través de las ciencias. 13"] H --> K["IA mejora la autonomía,
mejores elecciones de vida. 14"] H --> L["IA resuelve problemas de coordinación,
moldea el futuro. 15"] H --> M["Evitar demasiada IA,
mantener la motivación. 16"] C --> N["IA ayuda,
pero acelera riesgos. 17"] N --> O["IA para bien carece de
objetivo definible. 18"] N --> P["Objetivo equivocado lleva
a daño por IA. 19"] N --> Q["IA no es una
solución para todo. 20"] N --> R["Tiempo antes de AGI,
pero no podemos esperar. 21"] N --> S["Abordar sesgo algorítmico,
armas, vigilancia ahora. 22"] D --> T["Preocupación: IA
buena en
objetivos equivocados. 23"] T --> U["Educar, involucrar a través de
la defensa de IA. 24"] E --> V["Imágenes satelitales:
potencial para
monitoreo global. 25"] V --> W["Tutores IA pueden
transformar la educación
accesibilidad. 26"] V --> X["Bajo costo para
añadir IA global. 27"] V --> Y["Costo de infraestructura
supera el costo de
despliegue de IA. 28"] F --> Z["IA mejora la autonomía,
resuelve coordinación. 29"] F --> AA["AGI lejos,
pero debemos
resolver seguridad ahora. 30"] class A,B shift class C,D progress class E prob class F potential class G misuse class H,I,J,K,L,M,N,O,P,Q,R,S,T,U,V,W,X,Y,Z,AA future

Resumen:

1.- Necesitamos cambiar de pensar en IA como optimizadora de objetivos fijos a una IA que es incierta sobre y asiste con las preferencias humanas.

2.- La colaboración en IA como el premio de Netflix muestra potencial, pero deberíamos aspirar a más que solo recomendaciones de películas para beneficiar a la humanidad.

3.- Progreso en autos autónomos, IA para juegos, clasificación de visión por computadora - pero algunas limitaciones preocupantes y fragilidad en los enfoques actuales.

4.- La programación probabilística combina teoría de probabilidad, lógica/programación para permitir capacidad de modelado universal y razonamiento sobre modelos complejos del mundo real.

5.- En la próxima década, es probable que la IA vuelva al conocimiento y razonamiento, incluyendo el dominio de la comprensión del lenguaje natural.

6.- La IA tiene usos preocupantes - reconocimiento facial, generación de contenido falso, vigilancia, armas autónomas. Necesitamos abordar estos temas.

7.- Con IA avanzada, muchas tareas actualmente costosas/difíciles como construcción, educación, salud podrían volverse dramáticamente más baratas y accesibles globalmente.

8.- El valor económico de la IA a nivel humano es astronómico - potencialmente cuadrillones de dólares en valor presente neto.

9.- El modelo estándar de IA - optimizando un objetivo fijo - es fundamentalmente defectuoso porque no podemos especificar el objetivo correcto.

10.- Cuanto mejor sea la IA, peor será el resultado si persigue el objetivo equivocado. La historia muestra el peligro de deseos/metas mal especificadas.

11.- Necesitamos un nuevo modelo - IA beneficiosa donde la IA es incierta sobre las preferencias humanas y busca satisfacerlas.

12.- Para que la IA sirva a muchos humanos, las ideas de la teoría de la elección social, el diseño de mecanismos, la política pública pueden ayudar a abordar preferencias conflictivas.

13.- Tenemos que entender la conexión entre el comportamiento humano y las preferencias subyacentes a través de la ciencia cognitiva, psicología, neurociencia.

14.- La IA puede mejorar la autonomía humana liberando a las personas de restricciones y permitiéndoles aprender y tomar mejores decisiones de vida.

15.- A nivel colectivo, la IA podría ayudar a resolver problemas de coordinación y permitir que la humanidad moldee proactivamente el futuro en lugar de solo reaccionar.

16.- Pero no queremos tanta IA que los humanos se desmotiven y no aprendan a dirigir la civilización por sí mismos.

17.- La IA ya está ayudando con problemas globales y acelerará los beneficios, pero también está acelerando riesgos como armas autónomas, manipulación, vigilancia.

18.- Cuando decimos "IA para bien" en realidad no sabemos cómo definir un objetivo de "bien" que una IA pueda optimizar.

19.- Si damos a las IAs el objetivo equivocado, incluso con buena intención, causarán daño al perseguirlo de manera obstinada. Esto requiere nuevas bases de IA.

20.- La IA no es una panacea - muchas barreras son de coordinación y motivación humana. La tecnología por sí sola no puede resolver todos los problemas.

21.- Probablemente tengamos tiempo antes del riesgo de AGI, pero dado los riesgos y la velocidad del progreso, no podemos ser complacientes.

22.- Los problemas de sesgo algorítmico, armas autónomas, contenido falso, vigilancia deben abordarse ahora ya que empeorarán rápidamente con el progreso de la IA.

23.- Las discusiones mediáticas sobre robots malvados son una distracción - la verdadera preocupación son las IAs que son buenas en el objetivo equivocado.

24.- Como individuo, educarse a sí mismo y luego participar a través de la escritura/defensa es cómo involucrarse en dar forma al futuro de la IA.

25.- El análisis de imágenes satelitales tiene un enorme potencial para el monitoreo ambiental, la planificación urbana, la migración, el transporte marítimo, la pesca, etc. si se comparten los costos.

26.- Con lenguaje y razonamiento, los tutores IA podrían acelerar dramáticamente la educación, haciéndola mucho más barata y accesible para difundir habilidades y conocimiento.

27.- Una vez que la infraestructura esté en su lugar, agregar IA para nuevos servicios a escala global podría costar solo cientos de miles a unos pocos millones de dólares.

28.- La proporción del costo de infraestructura al costo de despliegue de IA puede ser de 1000:1 basado en el ejemplo de monitoreo sísmico global - permitiendo enormes beneficios.

29.- La IA mejorará la autonomía humana y ayudará a resolver problemas de coordinación, pero debemos definir proactivamente el futuro que queremos en lugar de reaccionar.

30.- Aún estamos lejos de la AGI que representa un riesgo existencial, pero no sabemos cuánto tiempo tomará resolver el control y la seguridad de la IA - debemos comenzar ahora.

Bóveda del Conocimiento construida porDavid Vivancos 2024