Conocimiento Bóveda 4 /96 - IA Para El Bien 2024
Entrevista con Sam Altman (remoto) y Nick Thompson (en persona)
Sam Altman
< Imagen del Resumen >
Enlace al Video IAParaElBienVer Video en Youtube

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef productivity fill:#d4f9d4, font-weight:bold, font-size:14px classDef security fill:#f9d4d4, font-weight:bold, font-size:14px classDef languages fill:#d4d4f9, font-weight:bold, font-size:14px classDef progress fill:#f9f9d4, font-weight:bold, font-size:14px classDef model fill:#d4f9f9, font-weight:bold, font-size:14px classDef safety fill:#f9d4f9, font-weight:bold, font-size:14px classDef governance fill:#d9f4f9, font-weight:bold, font-size:14px classDef future fill:#d9d9d9, font-weight:bold, font-size:14px classDef regulations fill:#ffd4d4, font-weight:bold, font-size:14px A["Entrevista con Sam
Altman remoto y
Nick Thompson en persona"] --> B["IA incrementa la
productividad en sectores clave. 1"] A --> C["IA plantea amenazas
tempranas de ciberseguridad. 2"] A --> D["GPT-4 cubre
muchos idiomas eficazmente. 3"] A --> E["Progreso incierto de IA
apunta a lanzamientos responsables. 4"] A --> F["Próximo modelo entrenado
parcialmente con datos sintéticos. 5"] A --> G["Objetivo: entender neuronas
enfoque de seguridad holístico. 6"] G --> H["IA debe ser
compatible con humanos pero superhumana. 7"] G --> I["OpenAI no usará
voces reales sin permiso. 8"] G --> J["Integrar seguridad y
capacidades de IA para usuarios. 9"] G --> K["Líderes que se van no significa
que se ignore la seguridad. 10"] G --> L["Enfoque en AGI, apuntando a un
mundo orientado a humanos. 11"] E --> M["Futuro: muchos modelos de lenguaje,
pocos dominarán. 12"] E --> N["IA altera el uso de internet
sin abrumar. 13"] E --> O["IA beneficia a los más pobres,
necesita nuevos contratos sociales. 14"] E --> P["Sociedad y economía necesitan reconfiguración
con IA. 15"] Q["Entrevista con Sam
Altman remoto y
Nick Thompson en persona"] --> R["Regulaciones actuales no consideran
impactos a largo plazo de IA. 16"] Q --> S["Regulaciones necesitan evolución empírica
con IA. 17"] Q --> T["Altman discrepa con críticas
sobre gobernanza. 18"] Q --> U["IA poderosa podría
fomentar humildad y asombro. 19"] Q --> V["IA podría ayudar en gobernanza
a través de agregación. 20"] T --> W["Difícil replicar la
experiencia subjetiva humana. 21"] T --> X["Habilidad clave: reaprendizaje
continuo con IA. 22"] T --> Y["Grandes beneficios de IA
y serios riesgos. 23"] T --> Z["Nueva junta de Seguridad para
el próximo modelo. 24"] T --> AA["Mejora pronunciada de IA requiere
políticas proactivas. 25"] P --> AB["Necesidad de marcos que equilibren
corto y largo plazo. 26"] P --> AC["No descuidar consideraciones
transformativas de IA. 27"] P --> AD["Enfoque iterativo seguro de IA, aprendizaje,
co-evolución. 28"] P --> AE["La ciencia reduce la centralidad humana
con el tiempo. 29"] P --> AF["Equilibrar beneficios de IA,
mitigar riesgos sociales. 30"] class B productivity class C security class D languages class E progress class F model class G safety class H,I,J,K,L safety class M,N,O,P future class Q regulations class R,S,T,U,V governance class W,X,Y,Z,AA governance class AB,AC,AD,AE,AF future

Resumen:

1.- La IA está comenzando a aumentar la productividad en áreas como el desarrollo de software, la educación y la salud.

2.- La ciberseguridad podría ser un impacto negativo temprano de la IA que necesita atención.

3.- El modelo GPT-4 de OpenAI tiene muy buena cobertura de una amplia variedad de idiomas, sirviendo al 97% de las personas en su idioma principal.

4.- No está claro si el progreso de la IA será lineal, asintótico o exponencial, pero OpenAI apunta a lanzar responsablemente los mejores modelos que puedan crear.

5.- El próximo modelo de OpenAI será entrenado parcialmente con datos sintéticos generados por otros modelos de lenguaje, pero es ineficiente depender completamente de esto.

6.- Aumentar la interpretabilidad del modelo y entender lo que sucede a nivel de neuronas es un objetivo, pero la seguridad requerirá un enfoque integral.

7.- Hacer que los sistemas de IA sean compatibles con los humanos en cómo operan y se comunican es importante, pero sus capacidades subyacentes son sobrehumanas y alienígenas.

8.- OpenAI no imita las voces de personas reales, como la de Scarlett Johansson, en su modelo de voz sin permiso.

9.- El trabajo de seguridad y capacidades de IA están entrelazados: se trata de construir sistemas integrados que logren de manera segura y capaz lo que los usuarios desean.

10.- Que líderes clave de seguridad como Ilya Sutskever dejen OpenAI no significa que la seguridad no sea prioritaria; el trabajo está integrado en todos los equipos.

11.- La AGI ha sido un foco importante para OpenAI, pero apuntan a dar forma a un mundo habilitado por IA que siga siendo máximamente orientado a los humanos.

12.- En 3 años podría haber cientos o miles de grandes modelos de lenguaje, con un pequeño número obteniendo la mayoría del uso.

13.- La forma en que las personas usan internet podría cambiar con la IA, pero no se volverá incomprensible ni estará abrumada de spam.

14.- La IA probablemente hará más para ayudar a los más pobres del mundo que a los más ricos, trayendo abundancia y prosperidad, pero podría requerir cambios en el contrato social.

15.- A largo plazo, toda la estructura de la sociedad y la economía podría necesitar reconfiguración a medida que la IA se vuelva extremadamente poderosa.

16.- Las regulaciones hasta ahora se han centrado en problemas a corto plazo como las elecciones, no en cuestiones más grandes de lo que sucede cuando la IA puede remodelar la economía.

17.- Los marcos regulatorios necesitarán evolucionar empíricamente poniendo sistemas de IA en el mundo y aprendiendo, no solo teorizando de antemano.

18.- Altman discrepa con las críticas de ex miembros de la junta de que la gobernanza y supervisión de OpenAI ha sido disfuncional.

19.- Crear IA más poderosa que los humanos podría aumentar la humildad y el asombro en lugar del egotismo, ya que la ciencia revela nuestro pequeño lugar en el universo.

20.- Altman imagina un posible futuro donde la IA ayuda a todos a tener voz en la gobernanza entendiendo y agregando preferencias individuales.

21.- Determinar si hay cosas sobre los cerebros/mentes humanas, como la experiencia subjetiva, que no se pueden replicar en IA es una pregunta difícil.

22.- Una habilidad humana importante en un futuro habilitado por IA será aprender cómo reaprender continuamente las cosas a medida que el mundo cambia rápidamente.

23.- Hay tanto enormes beneficios como serios riesgos que mitigar a medida que la IA se vuelve extremadamente poderosa.

24.- OpenAI lanzó un nuevo comité de Seguridad y Seguridad para preparar el lanzamiento de su próximo modelo.

25.- La trayectoria de mejora de la IA probablemente seguirá siendo pronunciada, por lo que necesitamos desarrollar proactivamente las estructuras y políticas adecuadas.

26.- Las empresas, los países y la comunidad internacional necesitan marcos de preparación que equilibren tanto los problemas a corto como a largo plazo.

27.- No deberíamos descuidar las consideraciones a largo plazo sobre la IA transformadora, pero tampoco deberíamos asumir que estamos cerca de un asíntota en el progreso.

28.- OpenAI cree en un enfoque iterativo, poniendo sistemas de IA seguros en el mundo, aprendiendo empíricamente y co-evolucionando la tecnología y la sociedad juntos.

29.- La historia de la ciencia ha estado marcada por una disminución de la centralidad humana a medida que descubrimos la verdadera escala del universo.

30.- El desarrollo de la IA requiere capturar simultáneamente los increíbles beneficios para el mundo mientras se mitigan cuidadosamente los riesgos sociales en diferentes escalas de tiempo.

Bóveda del Conocimiento construida porDavid Vivancos 2024