Imago Noticias
Prorrogan emergencia ferroviaria y reorganizan tren internacional Posadas-Encarnación
La Copa del Mundo llegó a Argentina: las glorias campeonas la recibieron en La Rural
F1 revela los pilotos para el día final de tests de pretemporada 2026
Guillermina Valdés confirmó que Mauricio Macri la contactó y aclaró los rumores
22/02/2026 03:09 • Internacionales
Una joven de tan solo 18 años accedió a una escuela en Tumbler Ridge, localidad de la provincia occidental de Columbia Británica en Canadá, totalmente armada y comenzó a abrir fuego. El trágico ataque acabó con la vida de ocho personas, incluida la propia atacante, y dejó 25 heridos, convirtiéndose en el peor tiroteo escolar de la historia del país norteamericano.
La investigación posterior reveló que la autora había realizado búsquedas sospechosas en ChatGPT meses antes del ataque, lo que generó un intenso debate sobre las responsabilidades de las empresas de inteligencia artificial en la prevención de tragedias.
Según informa The Wall Street Journal, empleados de OpenAI detectaron búsquedas de carácter violento en la cuenta de ChatGPT de la joven. La empresa planteó la posibilidad de alertar a la Real Policía Montada de Canadá, pero finalmente desestimaron esta opción.
Razón de la decisión: Los empleados no detectaron ningún plan creíble o inminente, por lo que no calificaron el incidente como un riesgo de daño físico a terceros.
El caso reabre un debate ético fundamental: ¿hasta dónde debe llegar la responsabilidad de las plataformas tecnológicas en la detección y prevención de amenazas potenciales? OpenAI cuenta con políticas de seguridad diseñadas para identificar comportamientos peligrosos, pero la línea entre vigilancia preventiva y privacidad del usuario sigue siendo difusa.
La empresa argumentó que sus protocolos no detectaron un plan concreto o inmediato, lo que según sus políticas no justificaba una alerta a las autoridades. Sin embargo, la tragedia demuestra que las señales de alerta temprana pueden ser cruciales en la prevención de actos violentos.
"En junio de 2025, identificamos proactivamente una cuenta asociada con este individuo a través de nuestros esfuerzos de detección y cumplimiento de abusos, incluidas herramientas automatizadas e investigaciones humanas para identificar el abuso de nuestros modelos para promover la actividad violenta. Nos pusimos en contacto proactivamente con la Real Policía Montada de Canadá para brindarles información sobre el individuo y su uso de ChatGPT, y seguiremos apoyando su investigación".
Las empresas de inteligencia artificial enfrentan un desafío creciente: balancear la privacidad de los usuarios con la responsabilidad de prevenir daños. ChatGPT, con más de 100 millones de usuarios, procesa miles de millones de interacciones mensuales, lo que hace que la detección de amenazas reales entre el ruido de datos sea extremadamente compleja.
Este caso podría impulsar nuevas regulaciones sobre la obligación de las empresas tecnológicas de reportar comportamientos sospechosos a las autoridades, similar a como los bancos deben reportar transacciones sospechosas de lavado de dinero.