La carrera global por el dominio de la inteligencia artificial (IA) no solo se libra en términos de potencia de cómputo, sino también en el terreno de la ideología y la libertad de expresión. Un reciente estudio realizado por académicos de las prestigiosas universidades estadounidenses de Stanford y Princeton ha revelado que los chatbots desarrollados en China están programados para evadir temas políticamente sensibles, ofreciendo respuestas evasivas o, en muchos casos, información incorrecta.

De acuerdo con la investigación, que analizó minuciosamente el comportamiento de diversos modelos de lenguaje (LLM, por sus siglas en inglés), existe una disparidad significativa entre el funcionamiento de las herramientas creadas por gigantes tecnológicos como Alibaba o Baidu y aquellas desarrolladas en Occidente, como ChatGPT de OpenAI o Claude de Anthropic. Mientras que los modelos occidentales suelen estar diseñados bajo parámetros de seguridad y ética para evitar discursos de odio, los modelos chinos incorporan capas adicionales de filtrado que responden directamente a las estrictas normativas de control informativo del gobierno de Pekín.

Los investigadores observaron que, ante cuestionamientos sobre figuras políticas específicas, eventos históricos sensibles o críticas al sistema de gobierno chino, las IA asiáticas tienden a responder con frases predeterminadas que desvían el tema o simplemente declinan continuar la conversación. Este fenómeno de "autocensura algorítmica" no es nuevo en el ecosistema digital de China —país que mantiene un control férreo sobre su internet mediante el llamado "Gran Cortafuegos"—, pero su implementación en la inteligencia artificial generativa plantea nuevos retos para la veracidad de la información a nivel global.

Para el público en México, donde el uso de servicios y dispositivos de empresas tecnológicas chinas es cada vez más frecuente, estos hallazgos subrayan la importancia de entender la procedencia de los datos y el sesgo de las herramientas que utilizamos. La preocupación central de los expertos no radica únicamente en la falta de respuesta, sino en la generación de datos políticos inexactos que podrían influir en la percepción pública si estas herramientas se adoptan de manera masiva en mercados internacionales.

Finalmente, el informe de Stanford y Princeton destaca que esta brecha en la neutralidad de la IA refleja una fragmentación creciente del internet. En este escenario, el acceso a la información y a la historia parece depender cada vez más de la jurisdicción geopolítica donde se entrena el algoritmo. En un mundo que camina hacia la automatización total, la transparencia en el entrenamiento de estos modelos se vuelve una prioridad urgente para garantizar la seguridad informativa del usuario final.