La tensión entre las empresas de inteligencia artificial y los organismos de defensa de Estados Unidos ha escalado a un nuevo nivel. Anthropic hits, la compañía creadora del reconocido modelo Claude, ha respondido formalmente a los señalamientos del Pentágono, calificando como "legalmente infundada" la posibilidad de ser boletinada como un riesgo para la cadena de suministro tras el colapso de las negociaciones sobre el uso bélico de sus modelos.
Este conflicto surge hoy como un seguimiento crítico a las discusiones privadas que la startup mantenía con el Departamento de Defensa. Según reportes de Wired, el diálogo se interrumpió abruptamente cuando ambas partes no lograron conciliar las políticas de seguridad y ética de Anthropic con los requerimientos operativos de las fuerzas armadas estadounidenses. El Pentágono, en respuesta, ha evaluado etiquetar a la empresa bajo una categoría de riesgo que limitaría su participación en contratos federales.
Para el sector tecnológico en México y América Latina, Anthropic es conocida principalmente por su enfoque en la "IA constitucional", un marco que busca hacer que los sistemas sean más seguros y honestos que sus competidores directos como ChatGPT de OpenAI. La postura actual de la empresa representa un desafío directo a la autoridad militar, argumentando que no existen bases jurídicas para penalizar a una compañía civil por establecer límites éticos en el despliegue de su software.
Lo que es nuevo hoy en este caso es la firmeza de la respuesta legal de Anthropic. Mientras que anteriormente se manejaba como una discrepancia contractual, ahora la empresa está confrontando abiertamente la designación de "riesgo de suministro", una etiqueta que suele reservarse para empresas con vínculos comprobados con adversarios extranjeros. Anthropic sostiene que esta medida es una represalia por no ceder ante las demandas del Pentágono sobre el control total de sus algoritmos.
Sin embargo, aún queda por confirmar cuál será la reacción oficial del Departamento de Defensa ante esta defensa legal. Hasta el momento, no se ha emitido un decreto formal de veto, pero la incertidumbre sobre si otras agencias de inteligencia seguirán el ejemplo del Pentágono mantiene a la industria tecnológica en vilo. El desenlace de esta disputa podría sentar un precedente sobre cómo las empresas de IA interactúan con la seguridad nacional en el futuro cercano.

