La disputa entre Anthropic y el Departamento de Defensa de Estados Unidos escaló luego de que el Pentágono catalogara a la empresa como “riesgo para la cadena de suministro”, lo que implicó vetar su tecnología en contratos militares.
El conflicto surgió cuando la compañía —conocida por priorizar la seguridad en inteligencia artificial— pidió condiciones específicas para el uso de su modelo Claude.
Entre las restricciones planteadas figuraban:
Sin embargo, el Pentágono solicitó acceso “para todo propósito legal”, sin limitaciones. Ante la falta de acuerdo, el organismo optó por avanzar en cooperación con OpenAI.
IA en operaciones militares y logística
Antes de la ruptura, la tecnología de Anthropic ya había sido integrada en sistemas críticos del Pentágono.
Estos modelos eran utilizados para:
Medios estadounidenses señalan que el modelo Claude habría sido utilizado en análisis de operaciones militares recientes en países como Venezuela e Irán, aunque el Pentágono posteriormente limitó su uso.
La polémica impulsa la popularidad de Anthropic
La disputa judicial también generó un efecto inesperado: el aumento de popularidad de Anthropic entre los usuarios civiles.
La empresa demandó al Gobierno de Estados Unidos alegando que no puede ser estigmatizada por defender estándares de seguridad tecnológica.
El caso incluso recibió respaldo de grandes actores del sector, como Microsoft, que solicitó una orden judicial para bloquear temporalmente la designación de la empresa como riesgo para la cadena de suministro.
Además, plataformas de nube como Amazon y Google confirmaron que los productos de Anthropic seguirán disponibles para clientes comerciales fuera del ámbito militar.
El impacto fue notable: la aplicación Claude alcanzó el primer lugar entre las apps gratuitas de la tienda de Apple, mientras que la valoración de la empresa llegó a 380.000 millones de dólares.
Tensiones internas en OpenAI
El acercamiento de OpenAI al sector militar también ha generado cuestionamientos dentro de la propia empresa.
La directora de su división de robótica, Caitlin Kalinowski, anunció recientemente su renuncia, citando preocupaciones éticas sobre la colaboración con el Pentágono.
La ingeniera advirtió sobre los riesgos de:
Según explicó, su decisión responde a “una cuestión de principios”.
Google gana terreno con una estrategia silenciosa
Mientras el conflicto entre Anthropic y OpenAI domina el debate público, analistas consideran que el actor que más avanza en el sector de defensa es Google.
La matriz Alphabet Inc. ha comenzado a desplegar agentes de inteligencia artificial para la plantilla de aproximadamente tres millones de trabajadores del Pentágono, en tareas no clasificadas.
Expertos de firmas de análisis como PitchBook señalan que la fortaleza financiera de Google le permite asumir los riesgos reputacionales de colaborar con Defensa, algo más complejo para empresas emergentes.