graph LR
classDef main fill:#ffffff,stroke:#000
classDef era fill:#ffcccc
classDef infra fill:#ccffcc
classDef risk fill:#ffcccc
classDef prod fill:#ccffff
classDef tool fill:#ffffcc
classDef future fill:#f3e5f5
Main[Vault7-312] --> Era["Cambio de Era
1 6 30"]
Main --> Infra["Infraestructura
2 3 11 29"]
Main --> Risk["Riesgo & Memoria
7 25 26"]
Main --> Prod["Productos & UX
4 8 9 10 13 21 22 24"]
Main --> Tool["Herramientas & DevEx
12 14 15 28"]
Main --> Future["Visiones Futuras
16 17 18 19 20 27 5"]
Era --> S1["Explícito → Pesos → Prompts
1"]
Era --> S6["Legacy stacks se reducen
6"]
Era --> S30["Stacks híbridos 1/2/3.0
30"]
Infra --> S2["Hub de modelos Hugging Face
2"]
Infra --> S3["LLMs como utilidades
3"]
Infra --> S11["Docs de agentes Stripe & Vercel
11"]
Infra --> S29["Videos de niños vibe-coding
29"]
Risk --> S7["Espíritus con super memoria
7"]
Risk --> S25["Inyección & fuga de prompts
25"]
Risk --> S26["Ventanas de contexto vs memoria persistente
26"]
Prod --> S4["ChatGPT billones antes que gobiernos
4"]
Prod --> S8["Autonomía parcial con GUI
8"]
Prod --> S9["Cursor interfaz amigable para devs
9"]
Prod --> S10["Perplexity cita & controles
10"]
Prod --> S13["MenuGen horas vs semana
12"]
Prod --> S21["GUIs verifican diferencias de IA
21"]
Prod --> S22["Generadores de cursos & tutores
22"]
Prod --> S24["Waymo aún necesita teleop
24"]
Tool --> S12["Prompting primer lenguaje nativo
5"]
Tool --> S14["Docs a Markdown MCP
13"]
Tool --> S15["Flujos DevOps automatizables
14"]
Tool --> S28["Pequeños cambios mejor que kilolíneas
28"]
Future --> S16["Línea temporal traje Iron Man
15"]
Future --> S17["IA como electricidad vs SO
16"]
Future --> S18["Apagones de LLM en fallos API
17"]
Future --> S19["LLaMA Linux vs gigantes
18"]
Future --> S20["Mac mini LLMs personales
19"]
Future --> S27["AGI después de 2030
27"]
class Main main
class Era,S1,S6,S30 era
class Infra,S2,S3,S11,S29 infra
class Risk,S7,S25,S26 risk
class Prod,S4,S8,S9,S10,S13,S21,S22,S24 prod
class Tool,S12,S14,S15,S28 tool
class Future,S16,S17,S18,S19,S20,S27 future
Resumen:
La transmisión en vivo de Plácido Domènech enmarca la sesión como la quinta temporada de XHUBAi, una comunidad hispanohablante de IA, celebrando casi 400 episodios de podcast. Saluda a los espectadores que sintonizan en Twitch, TikTok, LinkedIn y otros, invita a participar en Discord, y les recuerda dar like y suscribirse. Tras una rápida reflexión personal, presenta noticias de última hora: Meta supuestamente ofreció casi cien millones de dólares anuales por la startup de Ilya Sutskever, luego pasó a fichar al CEO Daniel Gross, ilustrando cómo las grandes tecnológicas ahora persiguen talento escaso con contratos de nivel deportivo.
El presentador luego introduce la charla de Andrej Karpathy en YC sobre "Software en la Era de la IA". Karpathy argumenta que el software ha mutado tres veces en setenta años: Software 1.0 es código escrito a mano; 2.0 optimiza pesos de redes neuronales con datos; 3.0 trata prompts en inglés como programas para modelos de lenguaje grandes. Muestra cómo Hugging Face se ha convertido en GitHub para 2.0, mientras herramientas como LoRA commits extienden generadores de imágenes Flux. El prompting, dice, es el primer lenguaje de programación nativo al habla humana.
Luego reformula los LLMs simultáneamente como utilidades como la electricidad, fabs intensivos en capital, y sistemas operativos al estilo de los 60. El tiempo compartido en la nube centralizada refleja mainframes, mientras clientes ligeros como Mac minis insinúan computación personal con LLM. La curva de difusión está invertida: los consumidores adoptaron ChatGPT de la noche a la mañana, dejando atrás a gobiernos y empresas. Karpathy advierte que estos "espíritus de personas" estocásticos poseen memoria enciclopédica pero sufren alucinaciones, razonamiento irregular y amnesia entre sesiones; construir productos confiables significa mantenerlos con rienda corta.
Aboga por productos de autonomía parcial como Cursor y Perplexity que mezclan verificación humana con generación de IA mediante GUIs, llamadas orquestadas y controles de autonomía ajustables. El vibe coding—iterar prompts en lenguaje natural—permite a no programadores crear apps en horas, como demuestra con MenuGen, aunque el tedio de DevOps persiste. Para que los agentes prosperen, la documentación debe cambiar de tutoriales basados en clic a Markdown amigable para LLM y endpoints MCP, reflejando la transición temprana de la web a formatos legibles por máquina.
Cerrando con la metáfora de Iron Man, Karpathy predice un deslizador de una década desde la aumentación a la agencia, urge despliegue incremental, e invita a desarrolladores a reescribir el software del mundo juntos.
30 Ideas Clave:
1.- Software 0: código explícito, 2.0: pesos neuronales, 3.0: prompts en inglés programan LLMs.
2.- Hugging Face refleja GitHub para modelos neuronales, commits actúan como control de versiones.
3.- Los LLMs se comportan como utilidades, fabs y sistemas operativos de los 60 que requieren tiempo compartido.
4.- La adopción de consumidores invirtió la difusión histórica; ChatGPT alcanzó billones antes que gobiernos.
5.- El prompting es el primer lenguaje de programación nativo de la humanidad.
6.- El C++ de piloto automático se redujo mientras crecían las redes neuronales; similarmente 3.0 consumirá stacks legacy.
7.- Los "espíritus de personas" estocásticos poseen super memoria pero alucinan y olvidan contexto.
8.- Productos de autonomía parcial mezclan verificación humana con generación de IA mediante GUIs.
9.- Cursor orquesta embeddings, chat, modelos diff tras interfaz amigable para desarrolladores.
10.- Perplexity cita fuentes y ofrece control desde respuesta rápida hasta investigación profunda.
11.- El vibe coding permite a no codificadores construir apps iterativamente con lenguaje natural.
12.- App MenuGen construida en horas mediante prompting, pero el despliegue consumió una semana.
13.- La documentación debe cambiar de clics a Markdown legible por LLM y endpoints MCP.
14.- La complejidad de DevOps como flujos Google Login debería ser automatizable por agentes.
15.- Metáfora traje Iron Man: aumentación hoy, agencia total en décadas.
16.- "IA es electricidad" de Andrew Ng captura utilidad pero ignora complejidad tipo SO.
17.- Apagones de LLM ocurren cuando APIs fallan, planeta pierde inteligencia temporalmente.
18.- LLaMA open-source puede evolucionar en ecosistema tipo Linux contra gigantes cerrados.
19.- Mac minis insinúan computación personal con LLM; la nube aún domina como mainframes de los 60.
20.- GUIs explotan visión humana para verificación rápida de diferencias generadas por IA.
21.- Pequeños cambios incrementales superan cambios de mil líneas para seguridad supervisada.
22.- Apps educativas se dividen en generadores de cursos auditables y tutores para estudiantes.
23.- GUI de piloto automático de Tesla visualizó percepción neuronal, presagiando paneles de LLM.
24.- Waymo demostró auto-conducción perfecta en 2013 pero aún necesita teleoperación en 20
25.- Riesgos de seguridad: inyección de prompts, fuga de datos, credulidad adversarial.
26.- Ventanas de contexto actúan como memoria de trabajo; memoria persistente no resuelta.
27.- Líneas temporales GPT-5 y AGI se extienden más allá de 2030; agentes necesitan supervisión.
28.- Videos de niños vibe-coding presagian alfabetización universal en software.
29.- Stripe y Vercel adoptan docs para LLM, pioneros en infraestructura para agentes.
30.- Futuros stacks de software hibridizarán paradigmas 1.0, 2.0, 3.0 según necesidades.
Entrevistas por Plácido Domènech Espí & Invitados - Bóveda de Conocimiento creada porDavid Vivancos 2025