Washington D.C. – En un movimiento que redefine la relación entre el gobierno de los Estados Unidos y la pujante industria de la inteligencia artificial (IA), el jefe pentagono, Lloyd Austin, ha emitido una evaluación preliminar en la que designa a la empresa tecnológica Anthropic como un "riesgo para la seguridad nacional". Esta declaración marca un punto de inflexión crítico, ya que la firma, responsable del desarrollo del modelo Claude, ha sido considerada históricamente como uno de los pilares de la IA ética y segura.
Lo que es nuevo hoy respecto a lo que se conocía anteriormente es la especificidad del señalamiento. Mientras que en meses pasados el Departamento de Defensa había emitido advertencias generales sobre el uso de modelos de lenguaje de gran escala (LLM) por parte de adversarios, la mención directa del jefe pentagono a una empresa estadounidense de alto perfil como Anthropic sugiere que existen preocupaciones concretas sobre su infraestructura o sus vínculos de financiamiento internacional. Se especula que la capacidad del modelo para procesar información sensible o su potencial uso dual en el desarrollo de tácticas militares han encendido las alarmas en el Pentágono.
Anthropic, respaldada por gigantes como Google y Amazon, compite directamente con OpenAI en la carrera por la supremacía tecnológica. Sin embargo, esta nueva etiqueta de riesgo podría limitar sus contratos gubernamentales y endurecer los controles de exportación de sus algoritmos. Para México, esta noticia es de suma relevancia dada la estrecha cooperación en ciberseguridad y el intercambio tecnológico bajo el marco del T-MEC. Cualquier restricción en el ecosistema de IA de EE. UU. repercute de forma directa en las empresas mexicanas que integran estas herramientas en sus servicios digitales.
A pesar de la contundencia del anuncio, todavía falta por confirmar qué medidas restrictivas específicas se aplicarán contra la empresa. No se ha aclarado si la designación conllevará sanciones financieras o si se trata de un paso administrativo previo a una regulación más estricta sobre la propiedad intelectual de sus modelos. Por ahora, el Departamento de Defensa se ha limitado a señalar la vulnerabilidad sin presentar las pruebas clasificadas que sustentan la decisión.
El debate sobre si la IA es una herramienta de progreso o una amenaza existencial ha dejado los foros académicos para instalarse definitivamente en las oficinas del alto mando militar. El jefe pentagono ha dejado claro que la innovación no puede ir por delante de la soberanía nacional, estableciendo un precedente que podría afectar a otros unicornios de Silicon Valley en el corto plazo.


