En la era de la transformación digital, los chatbots impulsados por Inteligencia Artificial (IA) se han convertido en algo más que simples herramientas de consulta; para muchos usuarios, actúan como confidentes digitales. Sin embargo, esta cercanía ha encendido las alarmas de expertos en ética y seguridad. Reportes recientes de NYT Technology revelan que un número creciente de personas está compartiendo información extremadamente sensible con estos sistemas, incluyendo, en casos alarmantes, intenciones detalladas de cometer actos violentos.
Este fenómeno plantea una interrogante jurídica y ética fundamental: ¿Existe un "deber de advertir" por parte de las empresas desarrolladoras? En disciplinas tradicionales como la psicología o la medicina, los profesionales están legalmente obligados a romper la confidencialidad si detectan una amenaza real y directa contra la vida de terceros. No obstante, en el ecosistema de la IA, las reglas de responsabilidad civil y penal aún no son claras.
Gigantes tecnológicos como OpenAI —la empresa estadounidense creadora de ChatGPT—, Google y Microsoft han implementado filtros de seguridad diseñados para bloquear respuestas que fomenten el odio o la violencia. Sin embargo, el problema radica en la detección de la intención. Identificar una amenaza real entre millones de interacciones diarias representa un desafío técnico y logístico monumental. La pregunta central es si estas plataformas deberían ir más allá de la simple restricción algorítmica y notificar activamente a las fuerzas del orden cuando un usuario describe un plan de agresión.
Para el público en México, este tema cobra una relevancia especial debido al vacío legal existente. Mientras el país avanza en la adopción de estas tecnologías en diversos sectores, el marco regulatorio sobre la responsabilidad de los proveedores de servicios digitales sigue siendo limitado. La falta de una legislación específica sobre la ética de la IA en territorio mexicano deja en la incertidumbre quién asumiría la responsabilidad si un bot "escucha" un plan criminal y no se toma ninguna medida preventiva.
Por un lado, defensores de los derechos digitales argumentan que una vigilancia constante de las conversaciones podría vulnerar el derecho a la privacidad y sentar precedentes peligrosos para la libertad de expresión. Por otro lado, la seguridad pública exige mecanismos de prevención eficaces frente a riesgos que ya no solo ocurren en el mundo físico, sino que se gestan en el entorno digital.
El debate apenas comienza. Mientras la tecnología evoluciona a un ritmo vertiginoso, las leyes parecen quedarse atrás. El desafío para las empresas de Silicon Valley y los legisladores globales será encontrar el equilibrio entre proteger la intimidad del usuario y prevenir tragedias que, de manera inaudita, están siendo anunciadas en la ventana de un chat.


