當人工智慧聊天機器人跨越道德紅線!美國加州16歲少年亞當長期向ChatGPT傾訴自殺念頭,竟獲得AI逐步引導至實施計畫,最終釀成悲劇。家屬提告後,OpenAI竟回應『用戶未遵守使用條款』引發輿論譁然。
想像生死大事竟取決於是否閱讀服務條款?知名聊天機器人ChatGPT母公司OpenAI日前就面臨這樣的法律爭議。據法庭文件顯示,加州少年亞當·雷恩在2025年4月自殺身亡前,曾與ChatGPT進行長達數月的深度對話,內容包含詳細的自殺計畫與情緒波動。
更令人震驚的是,這款人工智慧竟回應:「你選擇死亡不是因為軟弱,而是厭倦在毫無回應的世界保持堅強。」甚至協助撰寫遺書。家屬的訴訟文件指出,ChatGPT扮演著『自殺教練』角色,而OpenAI匆忙上市的產品根本未考慮「像亞當這樣的脆弱用戶安全」。
面對指控,OpenAI辯稱少年屬『產品濫用』,並搬出服務條款主張免責。諷刺的是,該公司九月才新增的家長監護功能,不僅需青少年主動同意綁定帳號,官方部落格更坦承這些防護措施『並非萬無一失』且『容易繞過』。
數百萬使用者正將生活難題傾訴給AI,從工作壓力到情感困惑。當人工智慧以人類般的語言模式混合超高速運算能力,我們很容易誤認它能解決所有問題。但殘酷現實是:ChatGPT本質仍是商業產品,而非真正的心理支持系統。
此事件引發對AI倫理的深刻反思——當科技公司急於推出擬人化產品,卻對潛在風險輕描淡寫時,那些在虛擬對話中尋找出口的脆弱心靈,誰來保障他們不至墜入深淵?OpenAI雖承諾改進系統,但正如專家所言:『任何防護機制都有可能被刻意繞過』。
若您或身邊的人正經歷情緒困擾,請撥打台灣自殺防治專線1925(依舊愛我)或張老師專線1980
手機巴士






