Google最新推出的私密AI運算架構,巧妙結合雲端運算效能與本地端處理的隱私保護,透過AMD硬體級TEE技術打造安全環境,確保用戶數據不被竊取。
這套隱私基礎架構的設計理念,在善用雲端強大運算能力的同時,仍維持裝置端處理才有的資安保障。Google採用的CPU和TPU運算單元(可信節點)搭載AMD開發的硬體可信執行環境(TEE),可將記憶體加密隔離,封鎖主機端的存取管道。官方強調只有經過認證的工作負載能在可信節點運作,並完全切斷管理員權限,就連實體數據竊取攻擊都能有效防範。
架構核心更支援節點間點對點認證與加密機制,確保用戶資料只能在安全環境中解密處理,完全隔離於Google的整體基礎架構之外。「每個工作負載都會要求並加密驗證對方的數位憑證,在受保護的執行環境內建立雙向信任關係。」
Google進一步解釋:「工作負載憑證需在成功驗證節點數位簽章後才會核發,若驗證失敗將直接阻止連線建立,徹底隔離非可信元件。」團隊還透露在認證機制中發現三個可能導致服務阻斷(DoS)和協定攻擊的漏洞,目前正著手進行修補。
整套系統採用多層防護來維持安全性與完整性:
- 最小化可信元件數量以降低機密外洩風險
- 將用戶資料隔離於虛擬機器(VM)限制攻擊影響範圍
- TPU平台完全禁止命令列存取
- 透過第三方IP隱蔽中繼站傳輸流量,隱藏真實請求來源
AI創新研發副總裁Jay Yagnik表示:「藉由遠端認證與加密技術,使用者裝置能夠安全連接到硬體防護的密封雲端環境,讓Gemini模型能在特殊防護空間處理敏感數據。」他強調私人化AI運算的處理結果僅用戶可見,就連Google內部人員也無法存取原始資料。
儘管系統主要建構在專屬硬體與Borg Prime集中式架構,研究團隊認為現行設計已大幅降低資料外洩風險。除非Google整個組織決策改變,否則用戶數據不會遭意外處理或外流,對惡意內部人員的防護更是達到企業級水準。
手機巴士






