Imago Noticias

Noticias con IA

OpenAI detectó búsquedas violentas de la autora del tiroteo escolar en Canadá meses antes del ataque

22/02/2026 03:09 • Internacionales

La empresa creadora de ChatGPT consideró alertar a la policía canadiense sobre las peligrosas búsquedas realizadas por la joven de 18 años que cometió el peor tiroteo escolar en la historia de Canadá. El perfil fue desactivado en junio de 2025 por violar las políticas de uso, pero no se notificó a las autoridades hasta después del atentado que dejó 8 muertos y 25 heridos en Tumbler Ridge.

El peor tiroteo escolar en la historia de Canadá

Una joven de tan solo 18 años accedió a una escuela en Tumbler Ridge, localidad de la provincia occidental de Columbia Británica en Canadá, totalmente armada y comenzó a abrir fuego. El trágico ataque acabó con la vida de ocho personas, incluida la propia atacante, y dejó 25 heridos, convirtiéndose en el peor tiroteo escolar de la historia del país norteamericano.

La investigación posterior reveló que la autora había realizado búsquedas sospechosas en ChatGPT meses antes del ataque, lo que generó un intenso debate sobre las responsabilidades de las empresas de inteligencia artificial en la prevención de tragedias.

?? Señales de alerta detectadas

Según informa The Wall Street Journal, empleados de OpenAI detectaron búsquedas de carácter violento en la cuenta de ChatGPT de la joven. La empresa planteó la posibilidad de alertar a la Real Policía Montada de Canadá, pero finalmente desestimaron esta opción.

Razón de la decisión: Los empleados no detectaron ningún plan creíble o inminente, por lo que no calificaron el incidente como un riesgo de daño físico a terceros.

? Acciones tomadas por OpenAI

  • Junio 2025: Identificación proactiva de la cuenta mediante herramientas automatizadas e investigaciones humanas.
  • Medida adoptada: Desactivación del perfil por violar la política de uso relacionada con la promoción de actividad violenta.
  • Post-tiroteo: Colaboración con autoridades canadienses cediendo toda la información sobre el individuo y sus búsquedas.

¿Cuándo debe una empresa alertar a las autoridades?

El caso reabre un debate ético fundamental: ¿hasta dónde debe llegar la responsabilidad de las plataformas tecnológicas en la detección y prevención de amenazas potenciales? OpenAI cuenta con políticas de seguridad diseñadas para identificar comportamientos peligrosos, pero la línea entre vigilancia preventiva y privacidad del usuario sigue siendo difusa.

La empresa argumentó que sus protocolos no detectaron un plan concreto o inmediato, lo que según sus políticas no justificaba una alerta a las autoridades. Sin embargo, la tragedia demuestra que las señales de alerta temprana pueden ser cruciales en la prevención de actos violentos.

Declaración oficial de OpenAI

"En junio de 2025, identificamos proactivamente una cuenta asociada con este individuo a través de nuestros esfuerzos de detección y cumplimiento de abusos, incluidas herramientas automatizadas e investigaciones humanas para identificar el abuso de nuestros modelos para promover la actividad violenta. Nos pusimos en contacto proactivamente con la Real Policía Montada de Canadá para brindarles información sobre el individuo y su uso de ChatGPT, y seguiremos apoyando su investigación".

Portavoz de OpenAI

? Contexto: El rol de la IA en la seguridad pública

Las empresas de inteligencia artificial enfrentan un desafío creciente: balancear la privacidad de los usuarios con la responsabilidad de prevenir daños. ChatGPT, con más de 100 millones de usuarios, procesa miles de millones de interacciones mensuales, lo que hace que la detección de amenazas reales entre el ruido de datos sea extremadamente compleja.

Este caso podría impulsar nuevas regulaciones sobre la obligación de las empresas tecnológicas de reportar comportamientos sospechosos a las autoridades, similar a como los bancos deben reportar transacciones sospechosas de lavado de dinero.

Fuente: Cadena SER, The Wall Street Journal | 21 de febrero de 2026
Noticias de Hoy