En una medida que redefine la relación entre Washington y la industria tecnológica, **trump tells** feds —es decir, instruye a las agencias federales— que dejen de utilizar Claude, el modelo de inteligencia artificial de la empresa Anthropic. La decisión se tomó luego de que la compañía tecnológica se mantuviera firme en su postura de no permitir que su herramienta fuera empleada para fines de vigilancia masiva o actividades que violen sus políticas éticas, incluso bajo la presión del Departamento de Defensa.

¿Qué pasó?

El conflicto central surgió cuando el Departamento de Defensa de los Estados Unidos solicitó acceso total a Claude para emplearlo en 'cualquier propósito legal'. Esta solicitud buscaba dar flexibilidad total a las fuerzas armadas y agencias de inteligencia para integrar la IA en operaciones de seguridad nacional. Sin embargo, Anthropic, una empresa fundada por exmiembros de OpenAI y reconocida mundialmente por su enfoque en la 'IA constitucional' (una metodología que prioriza la seguridad y los valores humanos), se negó a eliminar los candados que impiden que su tecnología sea usada para vigilancia intrusiva o acciones bélicas.

¿Por qué importa?

Para el público en México y el resto de la región, este caso es fundamental para entender el futuro de la regulación tecnológica. Anthropic no es tan conocida como Google o Microsoft, pero Claude es considerado uno de los modelos de lenguaje más avanzados y seguros del mundo. Este choque destaca una tensión creciente: mientras el gobierno busca herramientas de defensa sin limitaciones, las empresas de IA temen que sus creaciones sean utilizadas como armas de control social. La postura de la administración de Donald Trump sugiere que el gobierno priorizará contratos con empresas que alineen sus algoritmos con los objetivos de seguridad del Estado, dejando de lado a quienes impongan barreras éticas.

¿Qué sigue?

La orden de suspender el uso de Claude abre la puerta para que otros competidores en el espacio de la IA ajusten sus términos de servicio para ganar contratos gubernamentales millonarios. Por ahora, el distanciamiento entre Anthropic y la administración federal marca un precedente sobre la independencia de la ética tecnológica frente a las exigencias de seguridad nacional. Se espera que en los próximos meses otras dependencias sigan este lineamiento, buscando alternativas tecnológicas que no presenten restricciones operativas para el Pentágono.