El Departamento de Defensa de los Estados Unidos ha escalado su presión sobre Anthropic, una de las empresas de inteligencia artificial (IA) más prominentes del mundo, al emitir un ultimátum que podría definir el futuro de la colaboración tecnológica militar. Según reportes recientes, el Pentágono exige que la compañía elimine ciertas restricciones éticas impuestas a su modelo de lenguaje, advirtiendo que, de no hacerlo, la empresa podría ser catalogada formalmente como un "riesgo para la cadena de suministro".
Anthropic, con sede en San Francisco y fundada por exdirectivos de OpenAI, se ha posicionado en la industria tecnológica como una firma centrada en la seguridad y la ética, siendo Claude su producto estrella. A diferencia de otros competidores, la empresa ha insistido en mantener límites estrictos sobre cómo se utiliza su tecnología, especialmente en contextos bélicos o de defensa que puedan implicar el uso de fuerza letal. Sin embargo, estas salvaguardas ahora chocan directamente con los intereses estratégicos de Washington.
Para el contexto del público en México, la relevancia de Anthropic radica en que es considerada la principal alternativa ética a ChatGPT. Su enfoque en la denominada "IA Constitucional" busca que los modelos sigan principios humanos básicos de no agresión y veracidad, lo que ha atraído inversiones multimillonarias de gigantes como Amazon y Google. No obstante, el enfrentamiento con el Pentágono pone a la compañía en una posición vulnerable: ser designada como un riesgo para la cadena de suministro no solo les cerraría las puertas a lucrativos contratos gubernamentales, sino que también enviaría una señal negativa a socios comerciales y reguladores en todo el mundo.
La controversia subraya un dilema creciente en Silicon Valley: la tensión entre el rápido desarrollo de la IA con fines de defensa y las promesas de seguridad ética de sus creadores. Mientras el Pentágono busca integrar capacidades avanzadas de procesamiento de datos y análisis táctico en sus sistemas, Anthropic se mantiene firme en que su tecnología no debe ser utilizada para fines que contravengan sus principios fundacionales de seguridad.
Este pulso es observado de cerca por expertos en geopolítica y tecnología, ya que el resultado determinará si las corporaciones tecnológicas pueden imponer límites éticos al Estado o si, por el contrario, las necesidades de seguridad nacional terminarán dictando las reglas del juego en la carrera armamentista de la inteligencia artificial. Por ahora, Anthropic enfrenta la difícil decisión de ceder ante el poder militar estadounidense o arriesgar su viabilidad financiera en el sector público.


