En la carrera por la optimización de la Inteligencia Artificial (IA), Microsoft ha presentado un avance que promete transformar la manera en que las empresas utilizan los Modelos de Lenguaje Extensos (LLM). Se trata del marco de entrenamiento denominado On-Policy Context Distillation (OPCD), el cual logra que la IA retenga conocimientos específicos sin depender de los habituales y pesados 'prompts' de sistema.
Actualmente, para que una aplicación de IA funcione bajo las reglas de un negocio, los desarrolladores suelen recurrir al aprendizaje en contexto. Esto implica enviar instrucciones larguísimas que incluyen manuales técnicos, políticas de la empresa o preferencias de marca en cada consulta que se le hace al modelo. Si bien este método es efectivo para ajustar el comportamiento del sistema sin reprogramarlo por completo, genera un problema crítico a escala empresarial: una latencia elevada —es decir, lentitud en las respuestas— y un aumento significativo en los costos por cada interacción.
El nuevo sistema OPCD propone una solución más elegante y eficiente. En lugar de tener que 'pegar' las instrucciones una y otra vez en cada chat, esta técnica permite que el conocimiento y las preferencias de la aplicación se integren directamente en el modelo durante su fase de entrenamiento. Al utilizar las propias respuestas de la IA durante este proceso, se evitan errores comunes de otras técnicas de capacitación, logrando una especialización a medida que no sacrifica la capacidad general del sistema.
Tianzhu Ye, investigador de Microsoft Research Asia y coautor del estudio, explicó que las organizaciones suelen saturar los sistemas con 'prompts' extensos para garantizar medidas de seguridad —como la detección de discursos de odio— o para aportar experiencia en dominios específicos como el conocimiento médico. Sin embargo, esta práctica termina por ralentizar al modelo y elevar considerablemente el consumo de recursos.
Para el sector tecnológico en México, donde la adopción de la IA en servicios de atención al cliente y soporte técnico va en aumento, esta innovación de Microsoft representa una oportunidad clave para reducir gastos operativos. Al eliminar la carga de datos redundantes en cada consulta, las empresas mexicanas podrían ofrecer servicios automatizados más rápidos y precisos, optimizando el uso de la infraestructura en la nube.
En conclusión, la propuesta de Microsoft no solo hace que la IA sea más económica de operar para las empresas, sino que la vuelve más ágil, permitiendo que las aplicaciones corporativas pasen de ser herramientas experimentales a soluciones de alto rendimiento capaces de manejar volúmenes masivos de datos en tiempo real sin perder la inteligencia que las caracteriza.



