En una escalada sin precedentes dentro de la política tecnológica de Washington, el defense secretary Pete Hegseth ha designado formalmente a la empresa de inteligencia artificial Anthropic como un “riesgo para la cadena de suministro”. Esta decisión se produce menos de dos horas después de que el presidente Donald Trump anunciara a través de Truth Social la prohibición total de los productos de esta compañía dentro del gobierno federal, marcando un punto de ruptura en las relaciones entre el sector de Silicon Valley y el Pentágono.
¿Qué pasó?
La designación de Hegseth no es una medida aislada, sino la culminación de una semana de tensas negociaciones entre el Departamento de Defensa y Anthropic. El conflicto central radica en las políticas de uso aceptable de la empresa, conocida por su chatbot Claude. Según informes, el Pentágono lanzó un ultimátum a la compañía: debían aceptar, antes de las 5:30 PM (hora del este) del pasado viernes, que su tecnología fuera utilizada para “todos los propósitos legales”. Esto incluía explícitamente el desarrollo de armas letales autónomas sin supervisión humana y sistemas de vigilancia masiva.
¿Por qué importa?
Anthropic, fundada por ex empleados de OpenAI y posicionada en el mercado como una alternativa ética y segura a ChatGPT, se ha resistido históricamente a permitir que sus modelos de lenguaje sean utilizados en contextos bélicos directos. Para el lector en México, es vital entender que Anthropic es uno de los pilares de la IA actual; su exclusión del gobierno estadounidense no solo afecta su valor de mercado, sino que establece un precedente peligroso: el gobierno de EE. UU. está dispuesto a vetar a empresas tecnológicas locales que no cedan ante las demandas de militarización de la inteligencia artificial.
La etiqueta de “riesgo para la cadena de suministro” es una herramienta administrativa que suele reservarse para empresas extranjeras con vínculos a naciones adversarias (como China o Rusia). Al aplicar este término a una empresa estadounidense con sede en San Francisco, el defense secretary Pete Hegseth envía una señal clara a la industria: la ética de seguridad de las empresas de IA debe subordinarse a los objetivos de defensa nacional o enfrentarán el aislamiento estatal.
¿Qué sigue?
El futuro de Anthropic dentro del ecosistema de contratistas gubernamentales parece estar sellado por ahora. Se espera que esta medida provoque una reconfiguración en cómo las startups de inteligencia artificial gestionan sus políticas de seguridad y sus contratos con el sector público. Mientras tanto, el Pentágono podría buscar alternativas en otras empresas que se muestren más flexibles ante la integración de la IA en armamento autónomo, un tema que genera profundas preocupaciones éticas a nivel global.


