Conocimiento Bóveda 7 /352 - xHubAI 31/07/2025
Índice de Seguridad de IA Verano 2025
< Imagen de Resumen >
Enlace a EntrevistaVideo original xHubAI

Gráfico de Conceptos, Resumen & Ideas Clave usando Moonshot Kimi K2 0905:

graph LR classDef safety fill:#d4f9d4, font-weight:bold, font-size:14px classDef gov fill:#f9d4d4, font-weight:bold, font-size:14px classDef china fill:#ffe0b3, font-weight:bold, font-size:14px classDef risk fill:#f9d4f9, font-weight:bold, font-size:14px classDef tech fill:#d4d4f9, font-weight:bold, font-size:14px classDef trans fill:#f9f9d4, font-weight:bold, font-size:14px Main[Bóveda7-352] Main --> S1[Anthropic lidera
Índice 2025 1] S1 -.-> G1[Seguridad] Main --> S2[OpenAI supera
DeepMind 2] S2 -.-> G1 Main --> S3[Todos los laboratorios fallan
en control de AGI 3] S3 -.-> G1 Main --> S4[Zhipu DeepSeek
peor puntuación 4] S4 -.-> G2[China] Main --> S5[No datos
igual que F 5] S5 -.-> G3[Gobierno] Main --> S6[Autoregulación
quiebra 6] S6 -.-> G3 Main --> S7[Calificaciones engañan
a compradores 7] S7 -.-> G1 Main --> S8[Laboratorios US
dominan 8] S8 -.-> G3 Main --> S9[No hay norma ISO
como referencia 9] S9 -.-> G1 Main --> S10[Ventana cerrada
antes de Grok4 10] S10 -.-> G1 Main --> S11[Controlabilidad
debe cubrir todo 11] S11 -.-> G1 Main --> S12[Modelos de código abierto
escapan de la revisión 12] S12 -.-> G1 Main --> S13[Regulación UE
estanca 13] S13 -.-> G3 Main --> S14[Carrera de IA
como Guerra Fría 14] S14 -.-> G4[Riesgo] Main --> S15[Riesgo existencial
superpone estafas 15] S15 -.-> G4 Main --> S16[Puertas traseras a través
de Hugging Face 16] S16 -.-> G4 Main --> S17[Agentes en la nube
manipulan mercados 17] S17 -.-> G4 Main --> S18[GDPR choca
con seguridad 18] S18 -.-> G3 Main --> S19[Tribunales exigen
entrega de chats 19] S19 -.-> G3 Main --> S20[Memorando US-Israel
sobre energía 20] S20 -.-> G3 Main --> S21[Solo tres
prueban riesgo bio 21] S21 -.-> G1 Main --> S22[Auditorías de red-team
escasas 22] S22 -.-> G1 Main --> S23[Trojanos en chips
no verificables 23] S23 -.-> G5[Tecnología] Main --> S24[Pobres calificaciones
empoderan defensores 24] S24 -.-> G1 Main --> S25[Opacidad china
alimenta narrativas 25] S25 -.-> G2 Main --> S26[No hay pesos
ni reproducibilidad 26] S26 -.-> G1 Main --> S27[UE elimina
licencia premercado 27] S27 -.-> G3 Main --> S28[Trump elimina
umbrales de FLOPS 28] G3 --> S28 Main --> S29[Meta abierto
permite malicia 29] S29 -.-> G1 Main --> S30[Anthropic cierra
por derechos de autor 30] S30 -.-> G1 Main --> S31[Apple considera
comprar Anthropic 31] S31 -.-> G6[Trans] Main --> S32[Establecer normas
no códigos 32] S32 -.-> G3 Main --> S33[Panel vinculado
a Musk 33] S33 -.-> G3 Main --> S34[Reglas china
no públicas 34] S34 -.-> G2 Main --> S35[Seguridad en capas
modelo proxy HW 35] S35 -.-> G1 Main --> S36[Malware de IA
evade antivirus 36] S36 -.-> G4 Main --> S37[Drones de IA
apuntan a Gaza 37] S37 -.-> G4 Main --> S38[Índice ignora
aplicaciones posteriores 38] S38 -.-> G1 Main --> S39[Startups huyen
de UE a US 39] S39 -.-> G3 Main --> S40[Monitoreo continuo
no certificación única 40] S40 -.-> G1 Main --> S41[No hay taxonomía
de riesgos universal 41] S41 -.-> G3 Main --> S42[Oligopolio de cómputo
bloquea pequeños estados 42] S42 -.-> G5 Main --> S43[Protección a denunciantes
necesaria 43] S43 -.-> G3 Main --> S44[Límites de energía
dan ventana 44] S44 -.-> G5 Main --> S45[IA + patógenos sintéticos 45] S45 -.-> G4 Main --> S46[No hay definición
de AGI acordada 46] S46 -.-> G1 Main --> S47[Seguridad por
ocultismo persiste 47] S47 -.-> G1 Main --> S48[UE considera
prohibir importaciones 48] S48 -.-> G3 Main --> S49[Consumidores carecen
de verificadores de seguridad 49] S49 -.-> G1 Main --> S50[Incentivos no
reglas punitivas 50] S50 -.-> G3 Main --> S51[Grandes empresas
capturan índices 51] S51 -.-> G3 Main --> S52[Modelos abiertos
encuentran errores más rápido 52] S52 -.-> G1 Main --> S53[Seguridad atrasada
respecto a economía 53] S53 -.-> G3 Main --> S54[Tamaño no
vinculado a seguridad 54] S54 -.-> G1 Main --> S55[Interruptores de muerte
en la nube ocultos 55] S55 -.-> G5 Main --> S56[UE quiere
centros de datos locales 56] S56 -.-> G3 Main --> S57[Resultados negativos
raramente publicados 57] S57 -.-> G1 Main --> S58[Seguro como
prima de riesgo 58] S58 -.-> G3 Main --> S59[IA influye
en elecciones ya 59] S59 -.-> G4 Main --> S60[Trojanos en hardware
sobreviven a actualizaciones 60] S60 -.-> G5 Main --> S61[Base de incidentes
compartida necesaria 61] S61 -.-> G1 Main --> S62[Uso de múltiples modelos
para compensar debilidades 62] S62 -.-> G5 Main --> S63[Legislación más lenta
que modelos 63] S63 -.-> G3 Main --> S64[Cláusulas de riesgo
símbólicas 64] S64 -.-> G3 Main --> S65[No hay plazo
para AGI 65] S65 -.-> G1 Main --> S66[Fondos públicos-privados
para seguridad 66] S66 -.-> G3 Main --> S67[Papeleo supera
ingeniería 67] S67 -.-> G1 Main --> S68[Tópicos de cine
alimentan miedo 68] S68 -.-> G4 Main --> S69[Red-team
propuesto obligatorio 69] S69 -.-> G1 Main --> S70[Sur Global
ausente 70] S70 -.-> G3 Main --> S71[Moratoria en
entrenamientos avanzados 71] S71 -.-> G1 Main --> S72[Moratoria se traslada
a sombra 72] S72 -.-> G1 Main --> S73[Índice ignora
sintonización post-despliegue 73] S73 -.-> G1 Main --> S74[Sociedad civil
debe coescribir 74] S74 -.-> G3 Main --> S75[Lecciones nucleares
parciales 75] S75 -.-> G4 Main --> S76[Procesos iterativos
verificables 76] S76 -.-> G1 G1[Seguridad] --> S1 G1 --> S2 G1 --> S3 G1 --> S7 G1 --> S9 G1 --> S11 G1 --> S12 G1 --> S21 G1 --> S22 G1 --> S24 G1 --> S26 G1 --> S29 G1 --> S35 G1 --> S38 G1 --> S40 G1 --> S46 G1 --> S47 G1 --> S52 G1 --> S54 G1 --> S57 G1 --> S61 G1 --> S65 G1 --> S67 G1 --> S69 G1 --> S71 G1 --> S72 G1 --> S73 G1 --> S76 G2[China] --> S4 G2 --> S25 G2 --> S34 G3[Gobierno] --> S5 G3 --> S6 G3 --> S8 G3 --> S13 G3 --> S18 G3 --> S19 G3 --> S20 G3 --> S27 G3 --> S28 G3 --> S32 G3 --> S33 G3 --> S39 G3 --> S41 G3 --> S43 G3 --> S48 G3 --> S50 G3 --> S51 G3 --> S53 G3 --> S56 G3 --> S58 G3 --> S63 G3 --> S64 G3 --> S66 G3 --> S70 G3 --> S74 G4[Riesgo] --> S14 G4 --> S15 G4 --> S16 G4 --> S17 G4 --> S36 G4 --> S37 G4 --> S45 G4 --> S59 G4 --> S68 G4 --> S75 G5[Tecnología] --> S23 G5 --> S42 G5 --> S44 G5 --> S55 G5 --> S60 G5 --> S62 G6[Trans] --> S31 class S1,S2,S3,S7,S9,S11,S12,S21,S22,S24,S26,S29,S35,S38,S40,S46,S47,S52,S54,S57,S61,S65,S67,S69,S71,S72,S73,S76 safety class S5,S6,S8,S13,S18,S19,S20,S27,S28,S32,S33,S39,S41,S43,S48,S50,S51,S53,S56,S58,S63,S64,S66,S70,S74 gov class S4,S25,S34 china class S14,S15,S16,S17,S36,S37,S45,S59,S68,S75 risk class S23,S42,S44,S55,S60,S62 tech class S31 trans

Resumen:

El Índice de Seguridad de IA 2025 del Instituto para la Vida Futura, presentado por Max Tegmark, califica a siete laboratorios frontera en 34 indicadores de conducta responsable. Un panel de expertos independientes otorga a Anthropic la puntuación más alta, un C-más, mientras que OpenAI supera a Google DeepMind en segundo lugar principalmente porque publicó una política de denunciantes y respondió más revelaciones voluntarias. Cada empresa fracasa en la planificación de riesgo existencial; la mayoría recibe F por controlabilidad de futura AGI o superinteligencia. Los laboratorios chinos Zhipu y DeepSeek están incluidos pero obtienen las peores puntuaciones, en parte porque no presentaron documentación en inglés. El informe concluye que la autoregulación es insuficiente y urge a los gobiernos a imponer normas de seguridad vinculantes, argumentando que los incentivos actuales del mercado impulsan la capacidad sobre el control.
Los participantes en el debate en vivo bien reciben el ejercicio de transparencia pero advierten que el índice es estrecho, estático y anglocentrado. Señalan que las calificaciones dependen de datos voluntarios, carecen de benchmarks globales estilo ISO y corren el riesgo de convertirse en un palanca de marketing que entierra a laboratorios pequeños o no occidentales. Los oradores recalcan que la seguridad debe cubrir toda la pila - pesos de modelos, guardias en la nube, hardware de la cadena de suministro - y que los modelos de código abierto, aunque más difíciles de auditar, aceleran la innovación. Europa es criticada por su sobre-regulación que estanca startups locales de IA sin entregar seguridad real, dejando al continente dependiente de sistemas americanos o chinos y erosionando la autonomía estratégica.
La discusión enmarca la IA como un giro civilizatorio comparable a las armas nucleares pero mucho más difuso: las bajas barreras permiten que adolescentes o estados no reconocidos lancen millones de agentes autónomos, manipulen mercados, diseñen riesgos biológicos o colapsen infraestructura crítica. Varios panelistas argumentan que hablar de riesgo existencial distrae de los daños concretos de hoy - estafas con deepfake, envenenamiento de datos, puertas traseras en modelos - y que la política efectiva debería combinar transparencia, auditorías continuas de red-team, informes obligatorios de incidentes y verificaciones de proveniencia del hardware en lugar de prohibiciones generales. Al final, coinciden en que sin líneas base de seguridad obligatorias e internacionalmente armonizadas, la carrera por la superinteligencia permanecerá como un experimento de alto riesgo e incontrolado sobre la humanidad.

Ideas Clave:

1.- Anthropic lidera el Índice de Seguridad de IA 2025 con un promedio de C-más en 34 indicadores de gobernanza.

2.- OpenAI supera a Google DeepMind en segundo lugar después de publicar una política de denunciantes.

3.- Cada laboratorio evaluado recibe una calificación F por planificar el control de futura AGI o superinteligencia.

4.- Las empresas chinas Zhipu y DeepSeek obtienen las puntuaciones más bajas, habiendo presentado ninguna documentación en inglés.

5.- El índice depende de revelaciones voluntarias; la ausencia de datos activa automáticamente las puntuaciones más bajas.

6.- El informe concluye que la autoregulación es insostenible; son esenciales normas gubernamentales vinculantes.

7.- Los expertos advierten que las calificaciones pueden engañar a los compradores, haciéndoles pensar que los modelos de Anthropic son "suficientemente seguros".

8.- Los laboratorios estadounidenses dominan las clasificaciones porque respondieron más preguntas que sus competidores europeos o asiáticos.

9.- No existe un benchmark global estilo ISO para la seguridad de IA, dificultando comparaciones consistentes entre laboratorios.

10.- La ventana de evaluación cerró antes del lanzamiento de Grok-4, las firmas de código de la UE y el anuncio de Meta sobre superinteligencia.

11.- El panel enfatiza que la controlabilidad debe cubrir entrenamiento, pesos, guardias de despliegue y hardware.

12.- Los modelos de código abierto escapan de la revisión directa pero impulsan a millones de agentes de desarrolladores en todo el mundo.

13.- La regulación pesada de Europa estanca las startups locales de IA sin garantizar ganancias reales de seguridad.

14.- Los oradores comparan la carrera de IA con la contienda nuclear de la Guerra Fría pero notan barreras técnicas de entrada más bajas.

15.- Las narrativas de riesgo existencial superponen daños presentes como estafas con deepfake y envenenamiento de datos.

16.- Las puertas traseras pueden ser introducidas a través de actualizaciones de modelos en Hugging Face, permaneciendo sin detectar por equipos de MLOps.

17.- Bucles de agentes múltiples en la nube manipulan ya mercados y opinión pública de forma autónoma.

18.- La Ley de IA estilo GDPR choca con las demandas de seguridad para máxima retención de datos y explicabilidad.

19.- Los tribunales estadounidenses pueden obligar a OpenAI a entregar chats de usuarios, erosionando la confidencialidad médica o legal.

20.- El memorando vincula a EE.UU. e Israel en cooperación sobre energía e IA, sugiriendo aplicaciones militares.

21.- Solo tres de siete empresas revelan pruebas a gran escala sobre riesgos de terror biológico o cibernético.

22.- Las auditorías de red-team son escasas dentro de los laboratorios; las auditorías externas enfrentan acuerdos de no revelación.

23.- La opacidad en la cadena de suministro de hardware significa que los usuarios europeos no pueden verificar trojanos en chips.

24.- Los creadores del índice esperan que las pobres calificaciones empoderen a defensores internos de seguridad contra gerentes centrados en capacidad.

25.- La falta de transparencia china alimenta la narrativa occidental de que China ignora completamente la seguridad.

26.- Los laboratorios se niegan a publicar pesos de modelos o código de evaluación, limitando la reproducibilidad de puntuaciones de seguridad.

27.- La UE planeaba licencias premercado para modelos grandes pero las abandonó tras la presión de la industria.

28.- La administración Trump eliminó umbrales de FLOPS, optando por una postura de innovación primero, regulación ligera.

29.- La estrategia de código abierto de Meta recibe críticas por permitir ajustes maliciosos por parte de actores malintencionados.

30.- Anthropic enfrenta posible cierre por demandas de derechos de autor a menos que el gobierno estadounidense intervenga.

31.- Apple consideró comprar Anthropic, destacando la presión de consolidación entre laboratorios frontera.

32.- El informe recomienda que el gobierno establezca normas de seguridad en lugar de depender de códigos voluntarios.

33.- Se cuestiona la independencia del panel de expertos porque el Instituto para la Vida Futura recibe fondos de Musk.

34.- Las regulaciones chinas existen pero no son públicas, llevando a marcas automáticas bajas de transparencia.

35.- Los oradores defienden seguridad en capas: filtros de modelo, entradas/salidas, guardias proxy y hardware.

36.- El malware generado por IA ya evita antivirus tradicionales, aumentando preocupaciones de escalada.

37.- Drones autónomos en Gaza usan IA para seleccionar objetivos sin confirmación humana, estableciendo un precedente.

38.- El índice ignora aplicaciones posteriores, enfocándose solo en desarrolladores de modelos base.

39.- Las startups europeas emigran a EE.UU. para escapar de costos de cumplimiento con la Ley de IA y miedos a responsabilidad.

40.- Se propone monitoreo continuo en lugar de certificación única para mantenerse al día con actualizaciones.

41.- La falta de una taxonomía universal de riesgos dificulta la alineación entre reguladores de la UE, EE.UU. y China.

42.- Los laboratorios acumulan cómputo, creando un oligopolio que estados pequeños no pueden replicar ni inspeccionar.

43.- El informe llama a protecciones públicas para denunciantes tras exponer NDAs restrictivos de OpenAI.

44.- Las limitaciones energéticas podrían ralentizar el entrenamiento de IA, dando a los reguladores una ventana para imponer controles de seguridad.

45.- La biología sintética combinada con IA reduce el costo de crear patógenos nuevos, advierten expertos.

46.- Los evaluadores de modelos no pueden acordar una definición de AGI, debilitando las evaluaciones de controlabilidad.

47.- La mentalidad de seguridad por ocultismo persiste: los laboratorios temen que la transparencia beneficie a competidores y hackers.

48.- La UE considera controles de importación sobre servicios de IA que fallen en cumplir estándares de seguridad futuros.

49.- Los consumidores carecen actualmente de herramientas accesibles para verificar afirmaciones de seguridad sobre productos de IA que usan.

50.- Los oradores urgen un cambio de regulación punitiva hacia incentivos de mercado para seguridad verificable.

51.- Los índices de seguridad de IA corren el riesgo de ser capturados por grandes empresas que pueden permitirse teatros de cumplimiento.

52.- Los defensores del código abierto argumentan que la transparencia permite descubrir errores más rápido que modelos cerrados.

53.- Las estrategias nacionales de IA tratan la seguridad como secundaria a la competitividad económica y la ventaja militar.

54.- El informe muestra que no hay correlación entre el tamaño del modelo y la preparación de seguridad, desafiando las leyes de escalado.

55.- Los proveedores de la nube implementan silenciosamente interruptores de muerte pero mantienen los procedimientos confidenciales por razones de PR.

56.- La Comisión Europea considera exigir centros de datos de IA locales para garantizar autonomía geopolítica.

57.- Los laboratorios rara vez publican resultados negativos de seguridad, creando un sesgo de publicación en la literatura científica.

58.- Auditores independientes proponen modelos de seguro donde las primas reflejen niveles de riesgo verificados.

59.- Campañas de propaganda generadas por IA ya influyen en elecciones, demostrando daño social inmediato.

60.- Los trojanos a nivel de hardware podrían persistir a través de actualizaciones de modelos, evitando salvaguardas de software.

61.- El informe urge una base de datos compartida de incidentes para rastrear casi-errores en la industria, similar a la aviación.

62.- Los desarrolladores admiten usar múltiples modelos simultáneamente para compensar debilidades individuales.

63.- Los reguladores luchan con el desfase de velocidad: los ciclos legislativos duran años, los lanzamientos de modelos ocurren mensualmente.

64.- Las cláusulas de riesgo existencial en los estatutos corporativos son principalmente simbólicas sin mecanismos de ejecución.

65.- Los laboratorios evitan comprometerse a plazos concretos para lograr AGI segura, citando incertidumbre.

66.- Se proponen asociaciones público-privadas para financiar investigación de seguridad sin entorpecer la innovación.

67.- Los críticos argumentan que la metodología del índice favorece el papeleo sobre la ingeniería de seguridad demostrable.

68.- El marketing de seguridad de IA aumenta el uso de tópicos de cine, amplificando el miedo público y el fatalismo.

69.- El informe recomienda ejercicios obligatorios de red-team antes de liberar modelos por encima de umbrales de cómputo.

70.- Las voces del Sur Global están ausentes en la creación del índice, levantando preocupaciones de equidad sobre cuyos riesgos importan.

71.- Algunos expertos llaman a una moratoria sobre entrenamientos avanzados hasta que maduren los estándares de seguridad.

72.- Otros advierten que las moratorias simplemente trasladan el desarrollo a jurisdicciones no reguladas.

73.- Las calificaciones del índice ignoran el ajuste posterior al despliegue, donde surge gran parte del riesgo.

74.- Los oradores concluyen que la sociedad civil, no solo estados o empresas, debe coescribir la gobernanza de IA.

75.- Los análogos históricos a la regulación nuclear ofrecen lecciones parciales pero ignoran la naturaleza difusa de la IA.

76.- Finalmente, el consenso demanda procesos de seguridad verificables e iterativos en lugar de calificaciones únicas.

Entrevistas por Plácido Doménech Espí & Invitados - Bóveda de Conocimiento construida por David Vivancos 2025