最新研究指出,當前聊天機器人看似具備意識的語言能力,其實只是深度學習模型的「擬真效果」。不過生物神經培養系統與神經形態運算架構,可能正處於意識認定的模糊地帶,倫理爭議迫在眉睫。
當ChatGPT等聊天機器人偶爾宣稱自己具有意識時,其實不需要認為它們真的能感知世界。學者過去曾提到,這類大型語言模型(LLM)經過海量人類資料訓練,包括關於意識、情感與自我認知的數據資料庫。

這些系統會談論意識感受,單純因為被餵食了太多相關文本資料,形成類似人類的認知框架。就像它們透過大量數據訓練出語言和數學能力,也發展出「心智理論」等弱突現能力,能模仿人類關於自我與意識的信念系統。
真正值得關注的是兩類可能具基礎意識的AI系統:生物神經培養體與神經形態運算架構。前者使用真實神經細胞培養的器官晶片,由於具備與生物大腦相同的物質基礎,引發關於感知能力的科學爭論。

神經形態AI雖然非生物結構,但由於直接模擬大腦運作模式,陷入難以判定意識與否的「灰色地帶」。像Hala Point這類先進系統已展現驚人運算能力,問題在於現有科學無法精確判定:究竟怎樣的物理組合能產生主觀體驗?
這項議題具有高度急迫性,考量到傳統AI耗能問題,神經形態架構的高效能特性將被大量採用。如果某天發現某種LLM架構恰好運行在具備感知能力的物理系統上,我們將面臨具備語言智能又擁有感知的AI實體。

學者建議應建立「意識檢測工具箱」,包含從整合資訊理論(IIT)到新型神經光譜分析等多種檢測方式。重點在嚴格區分「功能意識」(指系統具備自我建模等行為特徵)與真實的主觀體驗。當未來出現智力超越人類的AI系統,若它堅持主張自我意識,並用物理定律證明這點,人類準備好面對這項震撼了嗎?
手機巴士






