El gobierno estadounidense excluyó a la firma tecnológica de licitaciones públicas tras su negativa a adaptar su modelo Claude para su uso en sistemas de armas autónomas, alegando que sus salvaguardas éticas representan un riesgo para la cadena de suministro de defensa.
La administración de Estados Unidos vetó a la empresa tecnológica Anthropic y la catalogó como un «riesgo para la cadena de suministro» tras la negativa de la firma a permitir el uso irrestricto de su modelo de inteligencia artificial Claude en sistemas de armas autónomas.
Según informaron fuentes oficiales, el Departamento de Defensa buscó integrar las capacidades de procesamiento de lenguaje natural y razonamiento lógico de Claude en centros de mando que coordinan operaciones en Medio Oriente. La Casa Blanca consideró que las salvaguardas éticas de la empresa constituyen una «obstrucción operativa» para las capacidades de defensa nacional.
Para la administración, las limitaciones autoimpuestas por Anthropic ralentizan la respuesta de sistemas automatizados en escenarios de combate real y representan una vulnerabilidad estratégica frente a potencias extranjeras. La medida excluye a la compañía de cualquier licitación vinculada a la infraestructura crítica del Estado y prohíbe a las agencias federales renovar licencias de software con la firma californiana.
El conflicto escaló cuando el Pentágono exigió acceso al código fuente y a las capas de seguridad de Claude para su implementación en el programa Project Maven, que utiliza IA para identificar objetivos militares mediante imágenes satelitales y datos en zonas de conflicto. Los técnicos de Anthropic se negaron a eliminar los filtros que impiden generar respuestas relacionadas con la planificación de ataques físicos.
La administración sostuvo que la prioridad es la «superioridad algorítmica» en el campo de batalla, especialmente ante el avance de sistemas similares desarrollados en China. La sanción administrativa podría ralentizar el entrenamiento de futuros modelos de la serie Claude, que depende de infraestructura de gran escala. Sin embargo, la empresa mantiene su base de clientes en el sector privado.
Expertos en seguridad nacional indicaron que la medida define la frontera entre la IA civil y la militar. Mientras el gobierno busca establecer que cualquier desarrollo debe ser «militarizable», Anthropic cuenta con protocolos propios para garantizar que el avance tecnológico no supere ciertos límites. La empresa inició un proceso de revisión legal para apelar la designación, argumentando que sus protocolos de seguridad son precisamente lo que garantiza que la tecnología no sea vulnerada.
