數位科技資訊
MPBus.COM

AI深偽影片加劇種族歧視危機 社會正義面臨高科技挑戰

當AI能完美偽造犯罪現場影片,弱勢族群將首當其衝面臨冤獄風險,社會信任體系更可能全面崩解,這不是科幻電影情節而是迫在眉睫的科技風暴。

近日社群平臺瘋傳的OpenAI執行長山姆·奧特曼超市偷竊畫面,原來是全新釋出的Sora平臺創作成果——這個專供生成、混製深度偽造影片的AI工具,以突破性的擬真技術掀起狂潮。當惡搞對象是根本不可能犯下輕罪的白人科技巨頭時,多數人還能用娛樂心態看待;但若換成膚色較深的族群呢?真實故事就沒那麼好笑了。

深度偽造示意圖

馬里蘭州巴爾的摩剛發生震撼案例:某校AI監控系統將非裔學生手中的多力多滋誤判為武器,警方荷槍實彈到校壓制這名16歲少年。他在陳述中驚恐回憶:「他們用槍指著我時,我真的以為自己會死。」若非現場師生即時澄清,這套充滿種族偏見的AI系統險些釀成致命悲劇。

美國科羅拉多大學桑德拉·里斯托夫斯卡副教授警告:「政府機關正利用虛假證據合理化暴力執法。」特殊時期頒布的NPSM-7政策,將「反資本主義」等模糊概念定義為國安威脅,配合配備AI工具的執法機構,深度偽造影片完全可能成為政治打壓利器。羅耀拉大學法律專家蕾貝卡更直指核心:「偽造影片等於製造假證人,不僅扭曲事實,更摧殘司法體系的公信基礎。」

司法現場示意圖

隨著生成技術進化,未來勢必出現雙重危機:既有人運用偽造影片嫁禍弱勢,政府單位也能反咬真實證據是偽造。加州大學伯克利分校法證專家法里德提出震撼假設:「如果喬治·佛洛伊德事件發生在今天,可能被執法單位直接指控影片造假。」當加薩、烏克蘭的人權侵害影像都遭質疑真實性時,數位時代的正義將淪為虛擬戰場。

普林斯頓大學研究員菲佛康點出關鍵困境:「資源匱乏的群體最無力辨別真偽。」公立辯護律師面對堆積如山的案件,加上缺乏專業影像分析資源,根本難以對抗高科技栽贓手段。專家更憂心,現行司法體系連真實影片的解讀都受播速、鏡位等技術因素影響,陪審團的認知偏差常導致對膚色較深族群的誤判,如今加上深偽技術攪局,系統性歧視將惡化成無法逆轉的數位危機。

社會運動示意圖

各界學者疾呼建立三層防護網:立法強制平臺標記AI生成內容、研發先進數位浮水印技術,以及為司法系統建立專業影像鑑識團隊。里斯托夫斯卡教授強調:「我們必須在深偽技術普及前,讓真相防禦機制到位——這不再只是科技議題,而是攸關民主存續的文明保衛戰。」

贊(0)