En un enfrentamiento sin precedentes entre el sector tecnológico y el aparato militar de Estados Unidos, Anthropic, la startup de inteligencia artificial (IA) responsable del popular modelo Claude, ha decidido plantar cara al Pentágono. Dario Amodei, director ejecutivo de la empresa, confirmó a través de un comunicado oficial que no cederán ante las demandas del Secretario de Defensa, Pete Hegseth, de eliminar los límites de seguridad impuestos a sus modelos de lenguaje.

El conflicto escaló tras un ultimátum emitido por el Departamento de Defensa (DoD), el cual amenazó con cancelar un contrato vigente de 200 millones de dólares y calificar a Anthropic como un «riesgo para la cadena de suministro». Esta etiqueta es una designación sumamente grave, habitualmente reservada para empresas extranjeras de naciones adversarias, y podría bloquear de forma permanente la colaboración de la startup con cualquier agencia gubernamental.

La controversia radica en que el Pentágono exige que Claude esté disponible para «todos los fines legales», lo que incluye la vigilancia masiva y el desarrollo de sistemas de armas totalmente autónomos, capaces de ejecutar acciones letales sin supervisión humana directa. Ante esto, Amodei fue contundente al declarar que la empresa no puede, «por razones de conciencia», cumplir con un edicto que comprometa sus salvaguardas éticas fundamentales.

«Nuestra firme preferencia es continuar sirviendo al Departamento y a nuestros combatientes, pero manteniendo las salvaguardas solicitadas», señaló Amodei. El directivo subrayó que la tecnología de Anthropic, diseñada bajo un marco de «IA constitucional» para evitar abusos, sigue estando a disposición de la seguridad nacional de EE. UU., pero bajo parámetros que eviten usos que consideren peligrosos para la humanidad.

La respuesta del gobierno no se hizo esperar. Emil Michael, Subsecretario de Defensa, acusó a Amodei a través de sus redes sociales de querer «controlar personalmente al ejército de los Estados Unidos» y de poner en riesgo la seguridad nacional por motivos ideológicos. Este choque pone de relieve el creciente dilema ético en la industria tecnológica sobre el papel de la inteligencia artificial en la guerra moderna, un tema que resuena globalmente ante el avance de las armas autónomas.