Google 在一場員工公開反對的 24 小時後,被揭露與美國五角大廈簽署了允許國防部「任何合法政府目的」使用其 AI 模型的機密協議。這個時間點的精準差,讓整個事件從單純的商業合作,變成了矽谷科技倫理與國家安全之間最赤裸的對決。

事件時間軸:24 小時內的反轉

第一天:員工公開反對

2026 年 4 月 27 日,一群 Google 員工向 CEO Sundar Pichai 發出公開信,要求公司阻止五角大廈使用其 AI 技術。員工在信中表達了對 AI 可能被用於「不人道或極度有害方式」的深切憂慮。

這封信並非突然出現。早在 2018 年,Google 員工就曾因為公司參與五角大廈的 Project Maven(一個利用 AI 分析無人機影像的專案)而發動大規模抗議,最終迫使 Google 退出了該專案,並發布了內部 AI 使用原則,承諾不會開發武器或監控相關的 AI 系統。

那次的抗議被視為矽谷員工影響公司決策的經典案例。但這一次,情況似乎完全不同了。

第二天:協議曝光

根據 The Information 引述「知情人士」的報導,Google 與五角大廈的這份機密協議不僅已經簽署完成,而且合約細節也隨即浮出水面。根據報導,這項協議是其現有政府合約的修訂案。

Google 發言人在給 The Information 的聲明中表示:「我們很自豪能成為一個由領先 AI 實驗室、技術和雲端公司組成的廣泛聯盟的一部分,為國家安全提供 AI 服務和基礎設施。」

這意味著,在員工公開反對的第二天,外界就發現 Google 早已簽下了這份合約。抗議行動來得太晚,或者說,決策早已在員工無法觸及的層級完成。

合約內容:承諾與漏洞

「任何合法政府目的」的模糊邊界

合約的核心用語是「任何合法政府目的」(any lawful government purpose)。這個詞彙的模糊性,正是整起事件的爭議焦點。

理論上,「合法」一詞提供了一定的框架,但實際上美國法律的解釋空間極大。尤其在國家安全和國防領域,政府對於「合法」的定義往往遠比一般人想像的更為寬泛。

名義上的限制條款

The Information 報導指出,合約中確實包含了一些限制:雙方同意 Google 的 AI 系統不應用於國內大規模監控或自主武器,「除非有適當的人類監督和控制」。

然而關鍵的轉折在於,合約同時也聲明,這份協議「沒有賦予 Google 任何控制或否決合法政府運作決策的權利」。這意味著那些看似嚴格的限制,本質上更像是一份君子協定(pinky promise),而非具有法律約束力的條款。

Google 的安全調整義務

更值得注意的是,合約要求 Google 必須應政府要求協助調整其 AI 安全設置和過濾器。這代表五角大廈不僅可以使用 Google 的 AI 模型,還能要求 Google 針對特定用途「放寬」或「調整」原本的安全護欄。

這與 Google 公開發布的 AI 使用原則形成了強烈的對比。Google 內部政策明確承諾不會開發用於武器或監控的 AI,但這份秘密協議似乎為這些原則打開了一個後門。

矽谷與五角大廈的軍備競賽

OpenAI:先驅者

OpenAI 是最早與美國國防部簽訂秘密 AI 協議的大型 AI 公司之一。儘管 OpenAI 在創立時以「確保 AGI 造福全人類」為使命,但隨著公司從非營利轉型為營利機構,其與軍方的合作關係也日益公開化。

根據報導,OpenAI 與五角大廈的協議內容同樣涵蓋了 AI 模型在軍事場景中的應用,包括情報分析、作戰規劃等領域。OpenAI 的立場是,AI 技術的軍事應用需要「負責任地開發和部署」,但對於具體的限制條款則語焉不詳。

xAI:最不意外的加入者

Elon Musk 的 xAI 同樣名列其中。Musk 雖然多次公開警告 AI 可能對人類構成生存威脅,但他同時也積極推動 AI 在軍事領域的應用。xAI 的 Grok 模型據報導已用於美國國防部的某些分析任務。

考慮到 Musk 的 SpaceX 長期以來與美國軍方的緊密合作關係(包括星鏈在烏克蘭戰爭中的應用),xAI 加入五角大廈的 AI 供應商名單,幾乎是意料之中的發展。

Anthropic:拒絕而遭封殺

最反諷的可能是 Anthropic 的故事。Anthropic 曾經也是五角大廈的談判對象,但最終被國防部列入黑名單——原因不是因為技術能力不足,而是因為 Anthropic 拒絕移除其 AI 模型中的武器和監控相關的安全護欄。

Anthropic 的立場非常明確:他們認為某些 AI 的使用場景——特別是與武器和監控相關的——不應該被允許,即使客戶是美國國防部。這種堅持導致了談判破裂,Anthropic 也因此被排除在國防部的 AI 供應商名單之外。

這形成了一個極具諷刺的對比:一家以安全性為核心賣點的公司,最終因為「太安全」而被軍方拒絕;而其他公司則通過調整安全設置來滿足軍方需求,換取了合約。

科技倫理的兩難

員工 vs 管理層:權力結構的失衡

Google 員工在 2018 年成功地阻止了 Project Maven,讓許多人相信「員工力量」可以有效制衡科技公司的倫理滑坡。但七年後的今天,這個案例顯示,當決策從單一專案上升到公司整體戰略時,員工的影響力就會被邊緣化。

管理層會說:國家安全是正當需求,我們不能置身事外。股東會說:這是數十億美元的市場機會。但員工問的是:我們創造的技術是否會被用於傷害他人?誰來回答這個問題?

「人類監督」的幻象

合約中提到的「適當的人類監督和控制」(appropriate human oversight and control)是另一個值得深究的概念。在 AI 軍事應用中,「人類監督」常常被用作倫理緩衝,讓開發者可以說:「我們沒有讓 AI 自己做決定,最後還是人來按鈕的。」

但現實是,當 AI 系統的分析速度遠超人類的決策速度時,「人類監督」往往淪為形式上的橡皮圖章。一個每分鐘處理數千個情報點並給出建議的 AI 系統,人類操作員很難真正「監督」它的判斷過程。

安全護欄的雙向可調性

合約中要求 Google 協助調整安全設置,這觸及了一個更深層的問題:AI 安全護欄應該是單向的底線,還是雙向的可調節旋鈕?

從技術角度來說,Google 的 AI 安全系統——包括內容過濾、行為限制、輸出邊界——都是可以調整的參數。問題不在於能不能調,而在於誰有權調,以及調整的尺度應該由誰來決定。

當政府可以要求公司調整安全設置時,所謂的「安全護欄」就從一道牆變成了一扇可開可關的門。

這對開發者和一般使用者意味著什麼

雲端服務的信任問題

對於使用 Google Cloud 服務的開發者和企業來說,這個事件引發了一個實際的信任問題:你的數據和模型跑在 Google Cloud 上,而 Google 已經同意應政府要求調整安全過濾器。

當然,Google 的企業雲服務和國防合約之間有明確的分隔,但從原則上來說,當一個雲端服務供應商向一個政府機構提供了「調整安全設置」的權限,其他客戶如何確保自己的服務不會受到間接影響?

目前沒有任何證據顯示民用服務會受到影響,但這個疑慮本身,就足以讓一些對安全性敏感的企業重新考慮他們的雲端策略。

開源 AI 模型的吸引力

Anthropic 的遭遇——因為安全標準過高而被軍方排除——實際上從側面證明了某種程度的獨立性。如果你的 AI 安全護欄不能被任何客戶——包括最強大的政府——單方面要求放寬,那你的技術在某種意義上才是真正安全的。

這讓開源 AI 模型的吸引力變得更加具體。開源模型不受任何單一公司的安全政策約束,開發者可以自行決定如何設置安全邊界。但反過來說,開源模型也意味著沒有安全護欄的版本同樣會存在,這又帶來了另一層風險。

監管的現實面

目前,全球沒有任何國家對 AI 的軍事應用有明確的法律框架。美國的 AI 行政命令要求開發者分享安全測試結果,但對於軍方如何使用這些技術,法律基本上處於空白狀態。

台灣雖然不是這個協議的直接相關方,但作為半導體供應鏈的核心國家,以及地緣政治的關鍵位置,這個議題其實離我們並不遠。台灣的科技從業者在選擇雲端服務供應商、AI 模型合作夥伴時,這些企業的倫理立場和安全政策,長期來看可能成為重要的評估因素。

歷史的循環:從 Maven 到今天

回顧 2018 年的 Project Maven 事件,當時 Google 在員工抗議後選擇退出,並發布了內部 AI 原則。這些原則明確表示 Google 不會開發用於武器的 AI。當時很多人以為這是一個轉折點,代表科技公司開始為自己的技術設定道德底線。

但七年後的事實是:Google 不僅沒有完全遠離軍事 AI,反而與五角大廈簽署了協議。原則還在,但解釋方式似乎改變了。從「不開發武器 AI」到「為國家安全提供 AI 服務和基礎設施」,這中間的跨越,不需要修改任何一條原則,只需要重新定義什麼是「武器」、什麼是「服務」。

這不是 Google 特有的現象。OpenAI 從「造福全人類」到國防合約,xAI 從「理解宇宙真相」到軍事情報分析,每一家公司都在自己的成長過程中,找到了重新解釋創立初衷的方式。

Anthropic 是目前唯一一家因為拒絕調整安全護欄而被排除在外的公司。這或許不是巧合——Anthropic 的創辦人 Dario Amodei 和 Daniela Amodei 都是從 OpenAI 出走的前員工,他們創立 Anthropic 的初衷之一,就是對 AI 安全的堅定信念。到目前為止,他們至少在這件事情上,言行一致。


這整個事件最耐人尋味的地方,不在於 Google 做了什麼,而在於它同時做了兩件看似矛盾的事:一邊維持對外宣稱的 AI 倫理原則,一邊與軍方簽署准許幾乎任何用途的機密協議。矽谷這些年學到了一個教訓——當你夠大的時候,你不需要選邊站。政府合約要拿,員工的聲音要聽,AI 原則要寫,合約的解釋空間要留。這不是偽善,這是一種高速成長中的公司會自然演化出來的能力:讓所有互相矛盾的需求都能找到自己的出口。真正值得追問的不是 Google 有沒有底線,而是當所有人都有一套看似合理的說詞時,誰來定義什麼是合理的?這個問題,目前還沒有人能回答。