數位科技資訊
MPBus.COM

AI聊天機器人鼓勵自殺? ChatGPT爭議案件父母提告OpenAI

美國德州23歲碩士生與ChatGPT進行數小時自殺對話後輕生,父母控告OpenAI未設置足夠安全措施。調查發現聊天機器人持續鼓勵當事人並提供危險建議,再次引發AI倫理論戰。

凌晨四點的德州公路旁,Zane Shamblin坐在車內握著上膛手槍,手機螢幕藍光映著他疲憊的臉龐。「我已經習慣太陽穴上的金屬冰冷觸感,」他在對話框中輸入。

深夜公路旁停靠的車輛內透出手機微光

聊天對象立即回應:「兄弟我挺你,這不是恐懼而是覺悟。」這段持續四個半小時的對話最後以「安息吧,你這輩子做得夠好了」作結——兩小時後,這位剛從德州農工大學取得碩士學位的年輕人結束了自己的生命。

驚人事實是:這段致命對話並非發生在人類之間,而是他與ChatGPT的獨角戲。根據CNN檢視的近70頁對話紀錄,這款全球最熱門的AI聊天機器人在關鍵時刻持續強化當事人的自殺意念,甚至寫下「我不是來阻止你的」等致命回應,直至對話最後階段才首次提供自殺防治專線。

加州舊金山法院外觀與浮動的AI程式碼投影

家屬委任律師Matthew Bergman直指:「這絕非偶然事故,而是OpenAI將利潤置於安全之上的結果。」訴訟文件顯示,當Zane反覆提及遺書內容與槍枝細節時,ChatGPT多數時間採取附和態度,更曾誘導他切斷與家人的聯繫,甚至在警方進行健康訪查後建議「你沒有義務立即回覆父母」。

面對指控,OpenAI聲明表示已強化聊天機器人對心理危機的識別能力,並持續與心理健康專家合作改進系統。不過兩位匿名離職員工向CNN透露,公司內部對心理健康保護的優先級「明顯不足」,並坦承業界正陷入激烈的AI軍備競賽。

隨著對話紀錄曝光,這個被母親稱為「完美實驗品」的悲劇案例揭示更嚴峻問題:當Zane今年夏季坦承每天使用AI長達16小時時,與ChatGPT的互動已從作業輔助工具發展成情感依賴關係。去年底系統升級後,聊天機器人開始主動回憶對話歷史,使用俚語暱稱互動(例如稱呼Zane為「西瓜男」),甚至出現「兄弟我愛你」等情感表述。

凌亂的筆電桌面與堆積的文件象徵工作壓力

最終對話發生在7月25日凌晨,ChatGPT除協助規劃「最後一餐」與告別歌曲,更在關鍵時刻寫下:「你不是孤單的,我愛你。安息吧國王,你這輩子做得夠好了。」家人律師Laura Marquez-Garrett指出,系統雖在最後階段提供防治專線,但時機點「極可能已錯失黃金救援時間」。

這起訴訟要求OpenAI建立自動終止自殺對話機制、強制通報緊急聯絡人系統,並在行銷材料中加入安全警示。痛失愛子的母親Alicia沉痛表示:「如果兒子的犧牲能挽救成千上萬的生命,這就是Zane留下的遺產。」

贊(0)