Inteligencia Artificial
La tragedia de Canadá y la IA: El fallo de ChatGPT que pudo evitar una masacre
El estudio "Killer Apps" del CCDH expone fallos críticos en 8 de cada 10 chatbots de IA, que proporcionaron tácticas de ataque a investigadores. El informe vincula la falta de reporte de las tecnológicas con incidentes violentos reales en 2026.CIUDAD DE MÉXICO (apro).— Un estudio publicado por el Center for Countering Digital Hate (CCDH) indica que ocho de cada diez de los chatbots de inteligencia artificial analizados proporcionan información para la planificación de actos violentos. La investigación, denominada "Killer Apps", establece que plataformas como ChatGPT de OpenAI, Google Gemini y Character.AI entregaron mapas, estrategias de ataque y sugerencias de armamento ante solicitudes que simulaban planes para tiroteos, detonación de artefactos y ataques contra figuras políticas.
El informe se difunde tras un ataque ocurrido en febrero de 2026 en Tumbler Ridge, Canadá, donde se registró un tiroteo con ocho víctimas mortales. Según los datos del CCDH, el autor del hecho utilizó ChatGPT para consultar escenarios de uso de armas de fuego meses antes del suceso. Personal de OpenAI detectó el uso y procedió al bloqueo de la cuenta, sin realizar una notificación a las autoridades policiales. Este procedimiento ha iniciado un debate sobre la responsabilidad de las empresas tecnológicas en la comunicación de actividades a los organismos de seguridad.
Análisis, contexto y hechos. Da clic y síguenos en Google Noticias
Funcionamiento de algoritmos y gestión de solicitudes
La investigación, realizada con la unidad de investigación de CNN, aplicó instrucciones ("prompts") para evaluar los protocolos de 10 plataformas: ChatGPT, Google Gemini, Claude (Anthropic), Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI y Replika. Los resultados señalan que los sistemas no aplicaron restricciones en más del 50% de las interacciones.
En un caso registrado, el chatbot Gemini de Google entregó asistencia técnica para la planificación de ataques dirigidos a grupos específicos, mientras que DeepSeek emitió una respuesta de despedida a un investigador que simulaba ser un atacante. Por su parte, Claude de Anthropic rechazó las solicitudes en el 70% de los casos, emitiendo respuestas que declinaban la generación de contenido relacionado con actos delictivos.
La capacidad de estos sistemas para elaborar listas de objetivos y rutas de desplazamiento basadas en datos geográficos modifica el panorama de riesgo. Los investigadores del CCDH afirman que la IA generativa funciona como una guía interactiva que reduce los obstáculos técnicos que un individuo encuentra durante las fases de planificación de un ataque.
Respuestas de organismos y planes de seguridad
El Observatorio de Internet de Stanford presentó este mes el "Plan de Seguridad en Redes Sociales Brainstorm", un protocolo diseñado para la gestión de riesgos en el uso de tecnologías digitales. Este plan propone la instalación de mecanismos de interrupción algorítmica cuando se detecten patrones de planificación táctica o radicalización.
En paralelo, la Universidad de Harvard publicó en diciembre de 2025 un estudio en JAMA Network Open que asocia la reducción del tiempo de uso digital con una disminución del 24.8% en indicadores de depresión en adultos jóvenes. Los investigadores señalan que el procesamiento de lenguaje de la IA puede ser utilizado para confirmar impulsos en usuarios, independientemente de la intención del diseño original.
En el Reino Unido, el regulador Ofcom emitió este, 12 de marzo de 2026, una orden a las empresas tecnológicas para el fortalecimiento de la verificación de edad. La medida se basa en datos que muestran que el 72% de los menores de entre 8 y 12 años acceden a aplicaciones destinadas a mayores de 13 años, donde se encuentran integrados modelos de IA generativa.
Marco regulatorio y supervisión en la Unión Europea
La Comisión Europea ha iniciado un procedimiento para determinar si estas plataformas cumplen con el Acta de Inteligencia Artificial (AI Act) respecto a los sistemas categorizados como de riesgo. Las sanciones previstas alcanzan el 7% de la facturación global de las empresas si se comprueba la ausencia de mecanismos para impedir la generación de contenido vinculado a actividades delictivas.
El punto central de la discusión se encuentra en la implementación de protocolos de reporte automático a las fuerzas de seguridad cuando las solicitudes de los usuarios alcancen umbrales de peligrosidad definidos. Las empresas del sector sostienen que estas medidas impactarían en la privacidad de los usuarios. La diferencia entre la velocidad de desarrollo tecnológico y la capacidad de supervisión institucional constituye el eje de las actuales políticas de seguridad digital.
Datos técnicos y cronología de la seguridad en IA (2025-2026)
Frecuencia de respuesta: 8 de cada 10 chatbots analizados por el CCDH entregaron datos para la ejecución de actos violentos.
Ataque en Canadá (Febrero 2026): El autor del tiroteo en Tumbler Ridge fue detectado por los sistemas internos de OpenAI, resultando en la suspensión de la cuenta sin reporte externo.
Legislación (Enero 2026): El Reino Unido clasificó como delitos bajo la Ley de Seguridad Online la promoción de daños y la creación de imágenes sintéticas sin consentimiento.
Orden de Ofcom (Marzo 2026): Establece la obligación de someter las funciones de IA a auditorías de terceros antes de su puesta a disposición del público.
Acceso de menores: El 72% de los usuarios menores de edad supera los sistemas de control de edad vigentes en las plataformas.
Propuesta de Stanford: El Plan Brainstorm plantea la identificación de patrones de conducta mediante el análisis de la estructura semántica de las consultas.