Algoritmos, disuasión y el riesgo de una escalada accidental en la era de Maven y Anthropic.
04-05-2026
Mientras los titulares hablan de "tecnofascismo", una pregunta incómoda queda sin respuesta: ¿y si Palantir, en lugar de acelerar la guerra, estuviera congelando los umbrales de conflicto entre potencias?
Este artículo plantea una hipótesis falsable basada en el marco de Allison, los errores de Maven en Irán y el papel geopolítico de Anthropic.
Este es el segundo artículo geopolítico sobre Palantir. Para el contexto fáctico, consulte El manifiesto República Tecnológica. Para la tesis sobre el mercado de la disidencia, lea El mercado de la desobediencia civil.
Entre el 28 de febrero y el 6 de abril de 2026, la Fuerza Aérea estadounidense impactó más de 13 mil objetivos en Irán, incluidos más de 2 mil blancos de mando y control, 1,500 de defensa aérea y 1.450 de la base industrial iraní.
En el centro de esta operación, denominada Epic Fury, se encontraba el Maven Smart System (MSS) de Palantir. No como herramienta auxiliar, sino como el sistema operativo del Pentágono:
Las cifras son elocuentes: en las primeras 24 horas de la guerra, Maven generó más de mil opciones de ataque, un volumen que habría requerido semanas de trabajo a los analistas humanos.
El jefe digital y de IA del Pentágono, Cameron Stanley, lo resumió así: “Hemos pasado de identificar el objetivo a proponer un curso de acción y ejecutarlo, todo desde un mismo sistema. Esto es revolucionario”.
Pero la revolución tiene un precio. El 28 de febrero, una bomba de precisión impactó en la escuela primaria femenina Shajareh Tayyebeh de Minab, matando al menos a 168 personas, la mayoría niñas de entre siete y doce años.
La escuela estaba separada por un muro de un recinto de la Guardia Revolucionaria Iraní, pero los datos de los servidores militares estadounidenses seguían clasificando el edificio como blanco militar – una actualización que nunca se realizó.
Graham Allison, el decano emérito de la Kennedy School de Harvard que acuñó el concepto de “Trampa de Tucídides” –el miedo de una potencia establecida ante el ascenso de un rival hace inevitable la guerra–, no previó la irrupción del código en la ecuación de la disuasión.
Su marco clásico parte de la incertidumbre como motor del conflicto: Atenas no sabía con certeza si Esparta atacaría, y esa incertidumbre llevó al error de cálculo.
Pero Maven promete algo radicalmente distinto: disipar la incertidumbre estratégica.
En teoría, un sistema que procesa 150 fuentes de datos en tiempo real, cruza patrones históricos y produce listas de blancos priorizadas debería reducir el margen de error humano y, con él, la probabilidad de una guerra accidental o por mal cálculo.
El CTO de Palantir, Shyam Sankar, lo expresó sin ambages: “La gente mirará atrás y dirá que esta fue la primera operación de combate a gran escala realmente potenciada por IA”.
Pero he aquí la paradoja: la aceleración radical del ciclo de inteligencia no elimina la incertidumbre, sino que la traslada del dominio geopolítico al dominio algorítmico.
En lugar de preguntarse “¿qué hará el adversario?”, los comandantes se preguntan “¿qué ha clasificado el sistema?”.
Y esa pregunta es mucho más peligrosa, porque sus respuestas son opacas, difícilmente auditables y están escritas en código propietario.
El caso de la escuela de Minab es ejemplar no por su tragedia, sino por lo que revela sobre la arquitectura del error en la guerra algorítmica.
Según las investigaciones, el origen del fallo no fue una alucinación de una IA generativa ni un error de juicio humano, sino algo mucho más mundano y preocupante: una base de datos militar desactualizada durante años que seguía clasificando el edificio como blanco.
Maven adoptó esa clasificación incorrecta, la inyectó en el flujo de toma de decisiones automatizada y, en cuestión de minutos, produjo una recomendación de ataque que ningún humano tuvo tiempo de verificar.
Este caso revela los tres niveles de riesgo en la nueva disuasión algorítmica:
El analista de defensa Ben Van Roo, que trabajó en el ecosistema de Project Maven entre 2018 y 2020, lo formula con crudeza: la pregunta no es si Claude (el modelo de Anthropic) mató a esas niñas.
La respuesta plausible es que el fallo “está más alineado con información desactualizada sobre un blanco que se encontraba en una instalación militar”.
La integración de Claude en Maven se formalizó en noviembre de 2025, cuando Anthropic y Palantir firmaron un acuerdo para dotar al sistema de capacidades de interpretación contextual.
Pero la alianza duró apenas tres meses.
En febrero de 2026, el CEO de Anthropic, Dario Amodei, se negó a permitir que su IA se utilizara “en todos los usos lícitos” que el Pentágono exigía, que incluían la vigilancia masiva doméstica y los sistemas de armas autónomas.
La respuesta de la administración Trump fue inmediata: el Secretario de Defensa Pete Hegseth calificó a Anthropic como un “riesgo en la cadena de suministro”.
Horas antes del inicio de los bombardeos sobre Irán, Trump ordenó a las agencias gubernamentales que eliminaran la tecnología de Anthropic en un plazo de seis meses.
La ironía es doble.
Desde una perspectiva geopolítica, Anthropic se ha convertido en un actor no estatal con poder de veto sobre la cadena de suministro algorítmica del Pentágono.
Su decisión de retirarse fue una declaración de que el código puede tener restricciones de uso que los Estados deben negociar, no imponer.
Es el primer caso de una IA que se niega a participar en una guerra.
Si la incertidumbre sobre las intenciones enemigas es la causa última de las guerras por error de cálculo (Schelling), entonces un sistema que aumenta la transparencia en tiempo real debería reducir esa incertidumbre.
Maven permite ver el campo de batalla fusionado: dónde están los misiles, cómo se mueven las unidades. En teoría, esa información congela el conflicto porque ninguna de las dos partes puede sorprender a la otra.
Además, la velocidad de Maven introduce un elemento disuasivo: un adversario sabe que cualquier movimiento hostil será detectado, clasificado y respondido en minutos.
La disuasión se vuelve creíble por la certeza de su inmediatez algorítmica.
Pero la misma transparencia que congela también puede provocar. Si Maven detecta lo que interpreta como una preparación ofensiva enemiga –aunque sea una falsa alarma–, el sistema no se detiene a debatir.
Genera una lista de blancos en minutos. Y los comandantes, entrenados para confiar en la máquina, se ven presionados a actuar antes de que la ventana de oportunidad se cierre.
El verdadero peligro no es el fallo técnico, sino el cambio en los umbrales psicológicos de decisión.
Un general en 1990 necesitaba días para decidir un ataque.
Ese tiempo era también un filtro: permitía la duda, la consulta diplomática, la segunda opinión.
Con Maven, el tiempo de decisión se mide en minutos o segundos. La disuasión se vuelve frágil porque la ventana para la desescalada se reduce peligrosamente.
En un escenario de conflicto entre grandes potencias (EEUU-China, por ejemplo), la implementación de un sistema como Maven reduce la probabilidad de una guerra convencional generalizada por debajo de los niveles históricos de la era anterior a la IA, si y solo si su precisión en la identificación de intenciones enemigas supera el umbral del 85% y la tasa de falsos positivos estratégicos (alertas de ataque inminente que resultan erróneas) es inferior al 3% anual.
La hipótesis se refutaría si, en presencia de Maven, se observa que:
El marco de Allison fue formulado para un mundo de humanos inciertos.
El mundo de 2026 es de algoritmos opacos que aceleran la decisión pero externalizan el error a bases de datos desactualizadas y cajas negras de código propietario.
Palantir, Maven y Anthropic no están solo definiendo cómo se libra la guerra: están redefiniendo qué significa “error de cálculo” en el siglo XXI.
La pregunta que nadie está haciendo, y que este artículo deja planteada, es:
¿qué ocurre cuando el sistema que promete disipar la incertidumbre introduce una fuente nueva e inaudible de error?
La respuesta, si la hipótesis es correcta, es que la guerra no se volverá más improbable – sino más impredecible, más rápida y, paradójicamente, más difícil de evitar una vez que el algoritmo haya hablado.
Este artículo es la segunda pata del trípode. Para el contexto fáctico conozca:
Para conocer la tesis del mercado de la disidencia es importante saber: