graph LR
classDef blanket fill:#d4f9f9, font-weight:bold, font-size:12px
classDef fep fill:#f9d4d4, font-weight:bold, font-size:12px
classDef attractor fill:#d4d4f9, font-weight:bold, font-size:12px
classDef mechanics fill:#f9f9d4, font-weight:bold, font-size:12px
classDef coding fill:#f9d4f9, font-weight:bold, font-size:12px
classDef selection fill:#d4f9d4, font-weight:bold, font-size:12px
classDef inference fill:#f9d4d4, font-weight:bold, font-size:12px
classDef entropy fill:#d4f9f9, font-weight:bold, font-size:12px
classDef scale fill:#f9f9d4, font-weight:bold, font-size:12px
classDef observer fill:#d4d4f9, font-weight:bold, font-size:12px
Main[Vault7-291]
Main --> B1["Límite
estadístico 1"]
B1 --> B2["Separa
estados 1"]
Main --> F1["Minimizar
sorpresa 2"]
F1 --> F2["Error del
modelo 2"]
Main --> A1["Revisitaciones
no idénticas 3"]
A1 --> A2["Vecindarios
probabilísticos 3"]
Main --> M1["Mecánica
bayesiana 4"]
M1 --> M2["Gradiente de
log-probabilidad 4"]
Main --> E1["Variantes
notacionales 5"]
E1 --> E2["Schrödinger
Fokker–Planck 5"]
Main --> C1["Variacional
neuronal 6"]
C1 --> C2["Codificación
predictiva 6"]
Main --> S1["Dinámica de
densidad 7"]
S1 --> S2["Maximizar
aptitud 7"]
Main --> I1["Percepción-
acción 8"]
I1 --> I2["Intercambio de
cobertura 8"]
Main --> R1["Retorno
oscilatorio 9"]
R1 --> R2["Estado
estacionario 9"]
Main --> SO1["Resistir
entropía 10"]
SO1 --> SO2["Descenso de
gradiente 10"]
Main --> SC1["Mismo
formalismo 11"]
SC1 --> SC2["Células-
cerebros 11"]
Main --> CI1["Individuación
sin 12"]
CI1 --> CI2["Aislamiento
causal 12"]
Main --> SM1["Alinea
homeostasis 13"]
SM1 --> SM2["Refuerzo de
utilidad 13"]
Main --> EP1["Producción de
entropía 14"]
EP1 --> EP2["Circulación
solenoidal 14"]
Main --> OD1["Observador-
observado 15"]
OD1 --> OD2["Partición
Markov 15"]
Main --> ME1["Evidencia del
modelo 16"]
ME1 --> ME2["Ajuste de
predicciones 16"]
Main --> RG1["Ruido
microscópico 17"]
RG1 --> RG2["Orden
macroscópico 17"]
Main --> AU1["Autocreación de
cobertura 18"]
AU1 --> AU2["Estados
activos 18"]
Main --> NN1["Descomposición
Helmholtz 19"]
NN1 --> NN2["Procesamiento
predictivo 19"]
Main --> GF1["Disipativo-
conservativo 20"]
GF1 --> GF2["Auto-
información 20"]
Main --> QM1["Amplitudes
complejas 21"]
QM1 --> QM2["Factorización de
probabilidad 21"]
Main --> SDK1["Agentes
sintientes 22"]
SDK1 --> SDK2["SDKs de
inferencia activa 22"]
Main --> MA1["Dinámica de
replicador 23"]
MA1 --> MA2["Cobertura
compartida 23"]
Main --> SMB1["Termodinámica de
información 24"]
SMB1 --> SMB2["Puente
estadístico 24"]
Main --> NE1["Intercambio
energía-materia 25"]
NE1 --> NE2["Persistencia
no-equilibrio 25"]
Main --> AD1["Contexto
lento 26"]
AD1 --> AD2["Subsistema
rápido 26"]
Main --> PG1["Independencia
genotipo-fenotipo 27"]
PG1 --> PG2["Fenotipo-
genotipo 27"]
Main --> PE1["Maximizar
evidencia 28"]
PE1 --> PE2["Modelos
generativos 28"]
Main --> AC1["Minimizar
futuro 29"]
AC1 --> AC2["Alterar
oculto 29"]
Main --> TL1["Ingeniería de
vida artificial 30"]
TL1 --> TL2["Riqueza
tautológica 30"]
class B1,B2 blanket
class F1,F2 fep
class A1,A2 attractor
class M1,M2,E1,E2 mechanics
class C1,C2 coding
class S1,S2 selection
class I1,I2 inference
class SO1,SO2,EP1,EP2 entropy
class SC1,SC2 scale
class OD1,OD2 observer
Resumen:
Plácido Domínguez da la bienvenida a los espectadores al horario de las 3 p.m. de la quinta temporada de XHUBAI, dedicada a explorar las ideas de Karl Friston, un neurocientífico cuyo principio de energía libre está transformando la inteligencia artificial. Tras descubrir a Friston a través de una entrevista en Wired, Benets guía a la comunidad hispanohablante por un terreno denso: coberturas de Markov, mecánica bayesiana y la física de la sintiencia. La transmisión en vivo se realiza simultáneamente en X, YouTube, LinkedIn, Twitch, Facebook, Rumble, Instagram y Kik; los comentarios rebosan curiosidad, confusión y gratitud.
El presentador advierte que la próxima conferencia es "infumable", pero esencial. Contrasta el material matemáticamente pesado con un programa vespertino protagonizado por Sofía Vidal sobre conciencia sintética, prometiendo una introducción más suave. Benets invita a unirse a Discord, apoyar vía PayPal o BuyMeACoffee, y recuerda que estas sesiones no están monetizadas ni simplificadas; son inmersiones colectivas en teoría que muchos dormirán, pero nadie olvidará.
Carl Friston toma entonces la palabra, comenzando con la afirmación de que biología, psicología y física comparten un fundamento: la persistencia estadística de "cosas". Usando coberturas de Markov—límites estadísticos que separan estados internos, sensoriales y activos—muestra cómo cualquier sistema auto-organizativo, desde una célula hasta una sociedad, puede describirse minimizando sorpresa (energía libre) mientras maximiza evidencia del modelo. La cobertura es escudo e interfaz: hace que la dinámica interna sea condicionalmente independiente del mundo externo, pero permite intercambio controlado mediante acción y percepción.
De este andamiaje emerge una mecánica bayesiana universal. Friston reformula las ecuaciones de Schrödinger, Fokker–Planck y Langevin como diferentes notaciones para los mismos flujos de gradiente en paisajes de log-probabilidad; la codificación predictiva cerebral, el aprendizaje por refuerzo y la selección darwiniana se convierten en casos especiales del mismo proceso de inferencia. La repetición—latidos, replicación, café—aparece como retorno itinerante a vecindarios de un atractor pullback, nunca el mismo estado dos veces, siempre dentro de límites probabilísticos. Los espectadores luchan con la tautología: sistemas que existen son aquellos que actúan como si minimizaran sorpresa, por lo que el principio de energía libre es tanto analítico como generativo para ingeniería de agentes.
La sesión termina con la promesa de una secuela dedicada a implementaciones neuronales y SDKs de inferencia activa. Benets regresa, eufórico, reconociendo que la charla "explota cabezas" pero une física, matemáticas e IA en una realidad tangible. Invita a la comunidad a reunirse más tarde para una exploración más conversacional de la conciencia sintética, llevando adelante el fuego conceptual encendido por la formidable síntesis de Friston.
30 Ideas Clave:
1.- La cobertura de Markov define el límite estadístico que separa estados internos, sensoriales y activos.
2.- El principio de energía libre enmarca la existencia como minimización de sorpresa o error de predicción del modelo.
3.- El atractor pullback describe revisitaciones no idénticas a vecindarios de estados probabilísticos.
4.- La mecánica bayesiana unifica ecuaciones físicas bajo flujos de gradiente en log-probabilidad.
5.- Las ecuaciones de Schrödinger, Fokker–Planck y Langevin vistas como variantes notacionales.
6.- La codificación predictiva surge como implementación neuronal de inferencia variacional.
7.- La selección darwiniana reinterpretada como dinámica de densidad maximizando aptitud adaptativa.
8.- La inferencia activa acopla percepción y acción mediante intercambio mediado por cobertura.
9.- La replicación equivale a retorno oscilatorio en sistemas de estado estacionario no-equilibrio.
10.- La auto-organización resiste entropía mediante descenso de gradiente en paisajes potenciales.
11.- La invariancia de escala permite el mismo formalismo en células, cerebros, sociedades.
12.- La independencia condicional permite individuación sin aislamiento causal.
13.- La minimización de sorpresa se alinea con homeostasis, aprendizaje por refuerzo, teoría de utilidad.
14.- Producción de entropía balanceada por circulación solenoidal que sostiene estructura.
15.- La distinción observador-observado requiere partición explícita de cobertura Markov.
16.- La evidencia del modelo cuantifica ajuste entre predicciones internas y datos sensoriales externos.
17.- El grupo de renormalización vincula ruido microscópico con orden macroscópico.
18.- La autopoiesis interpretada como autocreación de cobertura mediante estados activos.
19.- Las redes neuronales implementan descomposición Helmholtz para procesamiento predictivo.
20.- Flujos de gradiente en auto-información generan dinámicas disipativas y conservativas.
21.- Mecánica cuántica recuperada factorizando densidades de probabilidad en amplitudes complejas.
22.- Arquitecturas cognitivas pueden aprovechar SDKs de inferencia activa para agentes sintientes.
23.- Aprendizaje por refuerzo multiagente paraleliza dinámica de replicador bajo cobertura compartida.
24.- La mecánica estadística puentea termodinámica y descripciones información-teóricas.
25.- Sistemas no-equilibrio persisten mediante intercambio constante energía-materia.
26.- La aproximación adiabática permite deriva lenta de contexto para soluciones de subsistema rápido.
27.- La separación fenotipo-genotipo refleja independencia estadística cobertura-entorno.
28.- La percepción maximiza evidencia para modelos generativos internos de causas externas.
29.- La acción minimiza sorpresa futura alterando estados ocultos externos.
30.- La riqueza tautológica del principio de energía libre permite ingeniería de vida artificial.
Entrevistas por Plácido Doménech Espí & Invitados - Bóveda de Conocimiento construida porDavid Vivancos 2025