OpenAI, la empresa estadounidense líder en el desarrollo de inteligencia artificial y creadora del sistema ChatGPT, ha anunciado un endurecimiento significativo en sus protocolos de seguridad. La compañía se comprometió formalmente a notificar de forma inmediata a las fuerzas del orden ante cualquier "amenaza creíble" de violencia, luego de que se viera envuelta en una controversia regulatoria en Canadá.

De acuerdo con informes publicados por Politico y The Washington Post, OpenAI envió una carta a las autoridades canadienses tras ser citada por legisladores de ese país. La exigencia del gobierno canadiense surgió después de que se hiciera público que la empresa no informó a la policía sobre el bloqueo de una cuenta perteneciente al principal sospechoso de un tiroteo masivo ocurrido en 2025 en Tumbler Ridge, Columbia Británica. A pesar de haber detectado señales de alerta, la comunicación con las autoridades locales fue inexistente en la etapa preventiva.

El caso se tornó más crítico al revelarse que el perpetrador logró eludir los controles de la plataforma. OpenAI había suspendido la cuenta original del individuo tras identificar "advertencias potenciales de cometer violencia en el mundo real"; sin embargo, el sujeto fue capaz de crear un segundo perfil para seguir utilizando los servicios de inteligencia artificial. La empresa admitió que solo descubrió esta segunda cuenta una vez que la identidad del tirador fue difundida por los medios de comunicación tras el ataque.

Ann O’Leary, vicepresidenta de política global de OpenAI, detalló en la misiva que la organización realizará ajustes técnicos en sus sistemas de detección. El objetivo principal es evitar que usuarios expulsados por violaciones de seguridad puedan reingresar bajo nuevas identidades. Además, Sam Altman, director ejecutivo de la firma, ha aceptado reunirse con David Eby, el primer ministro de Columbia Británica, para abordar la responsabilidad de las tecnológicas en la prevención de crímenes violentos.

Para los usuarios en México y el resto de América Latina, este suceso subraya el debate creciente sobre la responsabilidad legal de las empresas de inteligencia artificial. OpenAI aseguró que, a partir de ahora, su política de seguridad priorizará la notificación de amenazas inminentes a las autoridades correspondientes. Este cambio busca cerrar las brechas que permitieron que un usuario con antecedentes de riesgo continuara utilizando herramientas digitales de vanguardia antes de cometer un acto de violencia masiva.