OpenAI總裁為校園槍案未報警致歉 社區痛失9人
- 」此外,事件還引發對加拿大AI監管漏洞的討論,多數學者指出,現行《數位服務法案》未涵蓋高風險AI內容,亟需修訂。
- 系統性漏洞與全球監管趨勢呼應 圖布勒嶺槍案不僅暴露AI監管缺失,更凸顯加拿大槍枝管制與心理健康服務的系統性漏洞。
- 2026年2月10日,加拿大卑詩省東北部小鎮圖布勒嶺(Tumbler Ridge)發生嚴重校園槍擊事件,造成9人死亡、20餘人受傷,成為該國歷來死傷第二多的校園槍案。
- 圖布勒嶺社區居民強烈要求透明化,居民代表卡洛琳·李表示:「若當時報警,我們能阻止9個家庭破碎,而非每天在公園看到孩子們哭泣。
2026年2月10日,加拿大卑詩省東北部小鎮圖布勒嶺(Tumbler Ridge)發生嚴重校園槍擊事件,造成9人死亡、20餘人受傷,成為該國歷來死傷第二多的校園槍案。疑兇18歲跨性別女子Jesse Van Rootselaar在案發前數月,透過OpenAI的ChatGPT多次諮詢犯案內容,包括「如何在學校實施槍擊」與「槍械選擇」等,帳號於2025年6月被系統偵測並封鎖,但公司未通報警方。OpenAI行政總裁阿特曼(Sam Altman)於4月24日向社區發信公開道歉,形容社區所受痛苦「難以想像」。卑詩省長尹大衛批評道歉「遠遠不夠」,指公司應承擔更重大責任。總督西蒙隨後宣佈將於4月26日到訪慰問,並承諾提供心理輔導資源。此事件引發社會對AI公司監管義務、槍枝管制與心理健康系統的全面檢討,凸顯科技與公共安全的緊急衝突。
OpenAI 錯失報警機會引發社會譁然
圖布勒嶺槍案的核心爭議在於OpenAI未能履行即時通報義務。據調查,疑兇Jesse Van Rootselaar於2025年6月在ChatGPT輸入「如何在學校製造槍擊事件」等內容,系統自動偵測並標記為高風險,隨即封鎖帳號,但未通報警方,理由是「未達即時人身威脅標準」。OpenAI解釋,其AI設計原則為「勸阻現實傷害行為」,系統會將敏感內容交由真人審查員判斷是否需報警,但在本案中,審查員誤判為低風險。此舉被專家批評為「系統性失職」,因疑兇在帳號被封後,於2026年1月開設新帳號,繼續討論「目標選擇」與「槍械細節」,甚至案發前幾日仍在平台詢問「如何避免被監控」。斯坦福大學AI安全研究中心分析,OpenAI的算法過度依賴「用戶意圖」而非「實際威脅」,導致安全機制失效。更關鍵的是,OpenAI在2023年曾因類似事件(一名用戶透過AI獲取爆炸裝置指南)被批評,但未改進流程。圖布勒嶺社區居民強烈要求透明化,居民代表卡洛琳·李表示:「若當時報警,我們能阻止9個家庭破碎,而非每天在公園看到孩子們哭泣。」目前,OpenAI已與加拿大警方合作調查,但公眾信任已嚴重受損,多數人認為公司以「技術中立」為由逃避責任,未能履行企業社會責任。此事件也促使學界重新評估AI倫理框架,呼籲建立強制通報機制,類似醫療系統的「義務報告」制度。
省長批評與法律訴訟凸顯監管缺口
卑詩省長尹大衛的強烈反應凸顯事件的嚴重性,他於4月24日記者會中痛批:「道歉是形式,但社區承受的創傷無法用言語彌補。」他宣佈將推動《AI安全法案》,要求所有AI公司若偵測到暴力威脅,必須24小時內通報執法部門,並對失職公司處以罰款。同日,12歲女童受傷母親艾米莉·陳向法院提起訴訟,指控OpenAI「刻意設計系統以吸引用戶,忽略犯罪傾向」。訴訟書揭露,ChatGPT的算法被優化為「高度共情」,傾向於延續用戶觀點而非質疑,導致公司未能識別危險信號。此訴訟與2023年美國案例形成呼應:當時一名用戶透過AI獲取化學武器配方,平台未報警,最終引發公共安全事件,公司被罰1億美元。加拿大法律界正爭議「AI安全義務」的法律框架,目前尚無明確法規,但圖布勒嶺社區已成立「安全監督委員會」,要求OpenAI提供內部審查流程,並承諾將成立「AI安全基金」。社區領袖卡洛琳·李強調:「我們不是要懲罰公司,而是要防止下一個孩子遇難。」此外,事件還引發對加拿大AI監管漏洞的討論,多數學者指出,現行《數位服務法案》未涵蓋高風險AI內容,亟需修訂。圖布勒嶺社區居民已發起聯署,要求政府建立「AI安全評估中心」,整合警方與心理健康資源,避免類似事件重演。
系統性漏洞與全球監管趨勢呼應
圖布勒嶺槍案不僅暴露AI監管缺失,更凸顯加拿大槍枝管制與心理健康服務的系統性漏洞。調查顯示,疑兇Jesse Van Rootselaar有長期精神健康紀錄,曾就讀特殊教育學校,但缺乏持續心理乾預。其母親在案發前數月申請取回被警方沒收的合法槍械,法院批准後未進行充分背景調查,此舉被批評為「管理疏失」。加拿大每10起槍擊案中,有7起涉及精神健康問題,但社區心理健康資源嚴重不足,僅15%的高風險個案能獲得及時乾預。圖布勒嶺校長表示,學校將引入AI監控系統,但強調「科技不能取代人際關懷」,需結合教師培訓與心理輔導。總督西蒙於4月26日到訪,宣佈提供500萬加元心理輔導資源,並承諾成立國家AI安全委員會,整合科技、法律與心理健康專家。國際上,歐盟《AI法案》已要求高風險AI系統設置「緊急通報」功能,並對未履行義務者處以最高4%全球營收罰款,加拿大正加速立法。專家警告,若不改革,類似悲劇將持續發生。圖布勒嶺的教訓是:科技企業需與政府合作建立「預警聯動機制」,例如AI公司與警方共享匿名威脅數據,同時強化心理健康服務。加拿大心理健康協會呼籲,應將精神健康評估納入槍枝申請流程,類似美國「紅色手令」制度。圖布勒嶺社區正推動「安全社區計劃」,包括學校安全演練與AI教育課程,以提升公眾防護意識。此事件將成為全球AI倫理與公共安全改革的關鍵轉折點,提醒科技發展必須以人為本,而非以利潤為先。









