En una escalada de tensiones que pone en vilo al sector tecnológico global, el presidente Donald Trump threatens con imponer "consecuencias criminales" a Anthropic, la startup de inteligencia artificial responsable del chatbot Claude. El mandatario arremetió contra la compañía, asegurando que está bajo el control de "fanáticos de izquierda" (leftwing nut jobs), lo que abre un nuevo frente de batalla legal y político sobre el desarrollo de la IA en Estados Unidos y su impacto en la libertad de expresión.
Lo que diferencia el anuncio de hoy de críticas previas es la gravedad del lenguaje utilizado. Mientras que en el pasado se hablaba de regulaciones comerciales o multas administrativas, hoy se menciona explícitamente la vía penal por la forma en que la empresa gestiona sus filtros de seguridad. El conflicto se centra en los llamados "safety guards" de la inteligencia artificial, los cuales, según la administración actual, están diseñados para censurar puntos de vista conservadores o promover sesgos ideológicos bajo la apariencia de protocolos de seguridad.
Para los usuarios y desarrolladores en México, Anthropic no es una empresa desconocida. Es considerada la competidora más sólida de OpenAI (creadores de ChatGPT) y sus modelos de lenguaje son fundamentales para el desarrollo de aplicaciones empresariales en toda América Latina. Una intervención judicial de esta magnitud en los Estados Unidos podría alterar el acceso global a esta tecnología, encarecer los servicios de nube y frenar la innovación en herramientas de procesamiento de lenguaje natural que hoy son esenciales para la economía digital mexicana.
A pesar de la contundencia de las palabras del presidente, todavía quedan varios puntos por aclarar en este seguimiento noticioso. Lo nuevo el día de hoy es la personalización del ataque hacia los directivos de Anthropic, a quienes calificó directamente de extremistas. Sin embargo, lo que falta por confirmar es si el Departamento de Justicia ha recibido instrucciones específicas para iniciar una investigación formal o si se trata de una estrategia de presión mediática para obligar a la empresa a modificar sus algoritmos antes de las próximas evaluaciones regulatorias.
Por ahora, el sector tecnológico observa con cautela. La posibilidad de que el código de una inteligencia artificial sea motivo de persecución penal establece un precedente que podría cambiar las reglas del juego para todas las empresas de software que operan en mercados internacionales, incluyendo aquellas con presencia en México.



