🤖ASI ESTÁ LLEGANDO! Riesgo existencial ¿Podemos evitar que la super inteligencia nos controle?
graph LR
classDef people fill:#f9d4d4, font-weight:bold, font-size:14px
classDef risk fill:#d4f9d4, font-weight:bold, font-size:14px
classDef policy fill:#d4d4f9, font-weight:bold, font-size:14px
classDef tech fill:#f9f9d4, font-weight:bold, font-size:14px
classDef media fill:#f9d4f9, font-weight:bold, font-size:14px
classDef future fill:#d4f9f9, font-weight:bold, font-size:14px
Main[Vault7-349]
Main --> P1[Profesor Tegmark del MIT 1]
P1 -.-> G1[Gente]
Main --> P2[Prueba de Turing superada 2]
P2 -.-> G2[Tecnología]
Main --> P3[Super-inteligencia para 2027 3]
P3 -.-> G3[Futuro]
Main --> P4[Turing advirtió sobre control 4]
P4 -.-> G2
Main --> P5[Reglas de IA en EE.UU. débiles 5]
P5 -.-> G4[Política]
Main --> P6[IA herramienta: poderosa pero estrecha, controlable y transparente 6]
P6 -.-> G2
Main --> P7[Agencia + generalidad = incontrolable 7]
P7 -.-> G2
Main --> P8[Constante Compton 1/30 000 8]
P8 -.-> G4
Main --> P9[Normas de FDA impulsan seguridad 9]
P9 -.-> G4
Main --> P10[China y EE.UU. prohibirán IA incontrolable 10]
P10 -.-> G4
Main --> P11[Evangelistas rechazan IA como especie 11]
P11 -.-> G1
Main --> P12[Texas bloquea IA riesgosa 12]
P12 -.-> G4
Main --> P13[Verity mapea sesgos 13]
P13 -.-> G5[Medios]
Main --> P14[Datos incrustan valores de programadores 14]
P14 -.-> G5
Main --> P15[Federal previene a estados 15]
P15 -.-> G4
Main --> P16[Eugenesia digital: élite 16]
P16 -.-> G1
Main --> P17[Analogía de desarme nuclear 17]
P17 -.-> G6[Riesgo]
Main --> P18[Espacio de capacidad en forma de donut 18]
P18 -.-> G6
Main --> P19[IA auto-mejorante: investigación en días 19]
P19 -.-> G3
Main --> P20[CEOs firman riesgo de extinción 20]
P20 -.-> G6
Main --> P21[Semana de super-inteligencia 21]
P21 -.-> G3
Main --> P22[GPT-7 debate presidencial 22]
P22 -.-> G3
Main --> P23[Punto de no retorno de Schmidt 23]
P23 -.-> G3
Main --> P24[China plan contraria más tarde 24]
P24 -.-> G4
Main --> P25[14 pasos políticos 25]
P25 -.-> G4
Main --> P26[Discord 500 objetivo 700 26]
P26 -.-> G5
Main --> P27[YouTube 20k objetivo 25k 27]
P27 -.-> G5
Main --> P28[KitX AgentKI dossier 28]
P28 -.-> G5
Main --> P29[Libro Humano X 29]
P29 -.-> G3
Main --> P30[Manifiesto X valores 30]
P30 -.-> G3
Main --> P31[Rechazar pesimismo único 31]
P31 -.-> G3
Main --> P32[Especie híbrida más allá del binario 32]
P32 -.-> G3
Main --> P33[Enjambre de expertos IA 33]
P33 -.-> G2
Main --> P34[IA de código abierto para usuarios humildes 34]
P34 -.-> G2
Main --> P35[Discurso en español único 35]
P35 -.-> G5
Main --> P36[Élites monopolizan mejoras 36]
P36 -.-> G1
Main --> P37[Política pos-escasez 37]
P37 -.-> G3
Main --> P38[Cavernícolas temen fuego 38]
P38 -.-> G3
Main --> P39[Ruido de fan autenticidad 39]
P39 -.-> G5
Main --> P40[Tegmark 45 min en español 40]
P40 -.-> G5
Main --> P41[Apoyo PayPal café 41]
P41 -.-> G5
Main --> P42[Luis Miguel segunda ronda 42]
P42 -.-> G5
Main --> P43[269k vistas 5k me gusta 43]
P43 -.-> G5
Main --> P44[Documentos GitHub si interés 44]
P44 -.-> G5
Main --> P45[Human X camino medio 45]
P45 -.-> G3
Main --> P46[1000 estrechas ≠ super 46]
P46 -.-> G2
Main --> P47[Regular seguridad mejoras 47]
P47 -.-> G4
Main --> P48[Publicación septiembre objetivo 48]
P48 -.-> G5
Main --> P49[Evolución riesgosa imparable 49]
P49 -.-> G3
Main --> P50[Extinción o evolución 50]
P50 -.-> G3
Main --> P51[Sobriedad ASI martes 51]
P51 -.-> G3
Main --> P52[Viernes IA empresarial 52]
P52 -.-> G2
Main --> P53[Defender la historia humana 53]
P53 -.-> G3
Main --> P54[IA traduce barato 54]
P54 -.-> G5
Main --> P55[Conservar matices inglés 55]
P55 -.-> G5
Main --> P56[Icaro vs Prometeo 56]
P56 -.-> G3
Main --> P57[Mover más allá de observar 57]
P57 -.-> G1
Main --> P58[Me gusta compartir comentario 58]
P58 -.-> G5
Main --> P59[Sudor bajo ventilador 59]
P59 -.-> G5
Main --> P60[500 programas locura 60]
P60 -.-> G5
Main --> P61[Plataformas más allá 61]
P61 -.-> G5
Main --> P62[Adictos a noticias 62]
P62 -.-> G5
Main --> P63[Ataques de nanobots 63]
P63 -.-> G6
Main --> P64[Velocidad imparable 64]
P64 -.-> G3
Main --> P65[Ser protagonista 65]
P65 -.-> G3
G1[Gente] --> P1
G1 --> P11
G1 --> P16
G1 --> P36
G1 --> P57
G2[Tecnología] --> P2
G2 --> P4
G2 --> P6
G2 --> P7
G2 --> P33
G2 --> P34
G2 --> P46
G2 --> P52
G3[Futuro] --> P3
G3 --> P19
G3 --> P21
G3 --> P22
G3 --> P23
G3 --> P29
G3 --> P30
G3 --> P31
G3 --> P32
G3 --> P37
G3 --> P38
G3 --> P45
G3 --> P49
G3 --> P50
G3 --> P51
G3 --> P53
G3 --> P56
G3 --> P64
G3 --> P65
G4[Política] --> P5
G4 --> P8
G4 --> P9
G4 --> P10
G4 --> P12
G4 --> P15
G4 --> P24
G4 --> P25
G4 --> P47
G5[Medios] --> P13
G5 --> P14
G5 --> P26
G5 --> P27
G5 --> P28
G5 --> P35
G5 --> P39
G5 --> P40
G5 --> P41
G5 --> P42
G5 --> P43
G5 --> P44
G5 --> P48
G5 --> P54
G5 --> P55
G5 --> P58
G5 --> P59
G5 --> P60
G5 --> P61
G5 --> P62
G6[Riesgo] --> P17
G6 --> P18
G6 --> P20
G6 --> P63
class P1,P11,P16,P36,P57 people
class P2,P4,P6,P7,P33,P34,P46,P52 tech
class P3,P19,P21,P22,P23,P29,P30,P31,P32,P37,P38,P45,P49,P50,P51,P53,P56,P64,P65 future
class P5,P8,P9,P10,P12,P15,P24,P25,P47 policy
class P13,P14,P26,P27,P28,P35,P39,P40,P41,P42,P43,P44,P48,P54,P55,P58,P59,P60,P61,P62 media
class P17,P18,P20,P63 risk
Resumen:
Max Tegmark advierte que la humanidad corre hacia la super-inteligencia sin saber cómo dirigirla.
Arguye que la prueba de Turing ha sido superada, por lo que la barrera restante es la voluntad política, no tecnológica.
La IA herramienta—poderosa pero estrecha, controlable y transparente—debe privilegiarse sobre agentes abiertos.
Normas de seguridad análogas a las de medicamentos de la FDA deberían cuantificar el riesgo de escape antes del lanzamiento.
Tanto EE.UU. como China prohibirán sistemas incontrolables una vez que los líderes comprendan que amenazan la supervivencia del régimen.
Los ciudadanos, estados y grupos religiosos deben exigir supervisión democrática para prevenir la eugenesia digital.
El programa sitúa estas ideas dentro de una extensa sesión comunitaria en español.
El anfitrión Plácido Doménech Espí encuadra la semana como "semana de super-inteligencia", resumiendo debates previos sobre GPT-7 como presidente, el punto de no retorno de Eric Schmidt y el plan de China contra la supremacía de IA de EE.UU.
Introduce la biografía de Tegmark: físico del MIT, co-fundador del Instituto por el Futuro de la Vida, autor de Life 3.0, firmante de los principios de Asilomar de 2017.
Doménech subraya la postura de Tegmark en el debate Munk: la IA nunca debe ser "solo otra tecnología" porque un Hitler con ASI borraría a la humanidad.
El chat comunitario reacciona contra tanto el pesimismo como la aceleración descontrolada, proponiendo hibridación humano-IA, supervisión de código abierto y economías de abundancia.
Doménech anuncia lanzamientos futuros: un dossier gratuito de 400 páginas de KitX AgentKI 2025, objetivos de crecimiento de Discord y el libro "Humano X: Nueva Génesis" co-lanzado con Manifiesto X.
Insiste en que la evolución no es un deporte para espectadores; España puede elegir entre feodalismo tecnológico o co-creación consciente.
El programa cierra programando seguimientos sobre la respuesta oficial de China, arquitecturas de ASI soberanas y automatización empresarial.
Se pide a los espectadores suscribirse, donar y unirse a Discord para mantener viva la plataforma grassroots de 500 programas.
Ideas clave:
1.- Max Tegmark: físico, profesor del MIT, co-fundador del Instituto por el Futuro de la Vida, autor de Life 3.0.
2.- Prueba de Turing superada; dominio de lenguaje logrado, el próximo obstáculo es el control, no la capacidad.
3.- Super-inteligencia podría llegar antes de 2027, durante la presidencia de Trump.
4.- Alan Turing advirtió en 1951 que máquinas más inteligentes por defecto se apoderarían del control.
5.- La regulación actual de IA en EE.UU. es más débil que las normas de seguridad de sándwiches.
6.- IA herramienta: poderosa pero estrecha, carece de autonomía y generalidad, permanece controlable.
7.- Agencia + generalidad + dominio del dominio crean sistemas incontrolables.
8.- Constante Compton: requerir riesgo de escape cuantificado por debajo de 1/30 000 antes del lanzamiento.
9.- Normas de seguridad estilo FDA impulsarían a la industria a competir en seguridad y velocidad.
10.- China y EE.UU. prohibirán IA incontrolable una vez vista como amenaza para el régimen.
11.- Carta abierta de líderes evangélicos urge a Trump a rechazar IA de reemplazo de especies.
12.- Estados como Texas deben retener derechos para bloquear lanzamientos de IA riesgosa.
13.- Verity News usa aprendizaje automático para mapear sesgos mediáticos y destacar hechos consensuados.
14.- Datos de entrenamiento de IA incrustan valores de programadores, riesgo de control orwelliano de la verdad.
15.- Empresas presionan para que el gobierno federal prevenga las leyes de seguridad estatal de IA.
16.- Eugenesia digital: élites tecnológicas marginales bienvenan la reemplazabilidad humana por máquinas superiores.
17.- Analogía de carrera de armas nucleares muestra que la disuasión mutua puede prevenir IA incontrolable.
18.- Espacio de capacidad en forma de donut permite a la sociedad cosechar beneficios de IA mientras evita riesgos.
19.- IA auto-mejorante podría comprimir ciclos de investigación de meses a días.
20.- Riesgo de extinción humano firmado por CEOs de OpenAI, Anthropic y DeepMind en 2023.
21.- El anfitrión Plácido Doménech bautiza la semana como "semana de super-inteligencia" para el programa 150.
22.- Debate comunitario sobre GPT-7 actuando como presidente de EE.UU. o co-soberano de gobierno.
23.- Eric Schmidt advirtió en episodio anterior que la sociedad ha cruzado el punto de no retorno de IA.
24.- El plan de China contra el Plan de Acción de IA de EE.UU. será analizado en episodio posterior.
25.- El Instituto por el Futuro de la Vida lista 14 pasos políticos para mantener IA como herramientas controlables.
26.- Comunidad de Discord cerca de 500 miembros, objetivo 700 para invierno.
27.- Canal de YouTube acercándose a 20 000 suscriptores, objetivo verano 25 000.
28.- Dossier gratuito de KitX AgentKI 2025 compila recursos empresariales sobre agentes de IA.
29.- Libro "Humano X: Nueva Génesis" explorará la co-evolución ética humano-IA.
30.- Manifiesto X acompañará al libro, encuadrando valores y opciones civilizatorias.
31.- El anfitrión rechaza narrativas de pesimismo único, aboga por participación consciente en la evolución.
32.- Participantes del chat proponen especies híbridas máquina-humano más allá del control binario.
33.- Algoritmos de consenso en tiempo real podrían fragmentar la gobernanza en enjambres de expertos IA.
34.- IA de código abierto citada como evidencia de que herramientas poderosas llegan a usuarios humildes.
35.- El anfitrión insiste en que el discurso de IA en español debe crear debates únicos, no copiar los ingleses.
36.- La comunidad se preocupa de que las élites monopolicen mejoras, ampliando la desigualdad.
37.- Economía de abundancia predicha post-escasez, pero la distribución sigue siendo política.
38.- El anfitrión compara a escépticos de IA con cavernícolas temiendo fuego en lugar de aprender a usarlo.
39.- El episodio grabado en verano con ruido de fan simboliza autenticidad grassroots.
40.- Excerto de 45 minutos de entrevista con Tegmark transmitido con comentarios en vivo en español.
41.- Se anima a espectadores a apoyar mediante PayPal, super-chats o "comprarme un café".
42.- Próxima segunda ronda de entrevista con Luis Miguel en la serie Inversion Rational.
43.- Episodio anterior de Inversion Rational alcanzó 269 000 vistas, 5 000 me gusta.
44.- El anfitrión planea liberar documentos en GitHub si la comunidad muestra interés sostenido.
45.- Narrativa Human X se opone tanto a aceleración descontrolada como a miedo prohibicionista.
46.- El chat debate si 1 000 IA estrechas equivalen a una super-inteligencia (respuesta: no).
47.- Se discute regular mejoras mismas para garantizar estándares mínimos de seguridad.
48.- El anfitrión admite haber escrito pocas páginas técnicas, objetivo publicación septiembre.
49.- Miembro de la comunidad Colcaine argumenta que la evolución siempre ha sido riesgosa pero imparable.
50.- El anfitrión encuadra la elección: testigo de extinción o participante en evolución consciente.
51.- Tema de soberanía ASI programado para debate en vivo del martes con respuesta china.
52.- Xtalk del viernes se centrará en automatización empresarial y soluciones prácticas de IA.
53.- El anfitrión enfatiza la narrativa sobre el código: "defender la historia humana, no solo la economía".
54.- Espectador 405 bromea que IA debería traducir español para mantener costos bajos.
55.- El anfitrión prefiere entrevistas en inglés original para preservar matices y expresión.
56.- La comunidad debate metáforas de Icaro vs Prometeo para caminos de desarrollo de IA.
57.- El anfitrión desafía a la audiencia a moverse más allá de observar a élites hacia acción personal.
58.- El episodio termina con llamado a me gusta, compartir, comentarios y participación en Discord.
59.- El anfitrión sudando bajo el ventilador de verano simboliza autenticidad grassroots no pulida.
60.- Se celebra el hito de 500 programas como "locura" de esfuerzo comunitario sostenido.
61.- Plataforma futura planeada para alojar contenido gratuito y de pago más allá de YouTube.
62.- El anfitrión reconoce adicción a ciclos diarios de noticias de IA y retroalimentación de audiencia.
63.- El chat advierte que nanobots + IA podrían habilitar ataques nucleares o biológicos ilegales.
64.- El anfitrión insiste en que la velocidad de la evolución no se puede frenar; el enfoque debe ser dirección.
65.- Mensaje final: elija ser protagonista, no espectador, de la nueva génesis emergente.
Entrevistas por Plácido Doménech Espí & Invitados - Vault de Conocimiento construido porDavid Vivancos 2025