Your code editor is now reading your package.json to decide if you’re a competitor. What a time.
——這是 Twitter 用戶 curtismakes 在 Theo 原始推文下的留言。一句話點出了整個事件的荒謬與警訊。
事情是怎麼發生的?
2026 年 4 月 30 日,知名開發者兼創作者 Theo(t3.gg)發布了一則推文,內容極短但殺傷力極大:
「有趣的事實:如果你的最近 commit 裡有一個 JSON blob 提到了 OpenClaw,Claude Code 要嘛拒絕你的請求,要嘛就向你收取額外費用。這是個空 repo,我只是直接呼叫 Claude Code。太瘋狂了。」
推文中附上了一張螢幕截圖,顯示 Claude Code 在一個幾乎空的專案中,因為發現 Git log 裡存在 OpenClaw 相關字串而觸發了異常行為——不是直接拒絕執行任務,就是計費機制出現異常跳升。
這則推文迅速在 HackerNews 上引發轟動,獲得超過 1300 點和 680 多則評論。截至本文撰寫時,該推文已累積近 150 萬次觀看。
核心事實:發生了什麼?
要理解這件事的嚴重性,我們需要先還原幾個已知的事實。
根據 HN 討論串中的資訊,Anthropic 大約在 2026 年 4 月初做了一項政策調整:Claude Code 的訂閱用戶不能再將他們的訂閱額度用於第三方工具,包括 OpenClaw、OpenCode 等非官方 harness。
但問題在於,這項限制的實施方式並非單純的帳戶設定或金鑰管控,而是——根據眾多開發者的回報——Claude Code 在運行時會掃描 Git 歷史記錄,檢查 commit message 或 diff 中是否出現特定關鍵字(如 OpenClaw)。一旦偵測到,就會啟動限制機制。
具體來說,開發者回報了以下幾種行為:
- 直接拒絕執行:Claude Code 回應「無法完成此請求」,不給任何理由
- 計費異常:明明還在訂閱方案內,系統卻顯示需要額外付費才能繼續
- 建議不要使用 OpenClaw:有用戶表示「我問 Claude Code 用 OpenClaw 會不會有幫助,它每次都告訴我『你不需要那個』」
GitHub 用戶 kmcheung12 甚至做了一個實測,發現單純用 claude -p '{"schema": "openclaw.inbound_meta.v1"}' 命令下達任務時 Claude Code 運作正常,但一旦 Git log 中出現 OpenClaw 字串就會觸發異常。這暗示 Claude Code 的系統提示(system prompt)中被注入了 Git 歷史作為上下文,然後根據歷史內容做出不同的行為決策。
開發社群的反應
這件事在社群中引發了兩極反應。一邊是對 Anthropic 的強烈批評,另一邊則是對事件本質的理性分析。
批評方:這是一場信任危機
許多開發者認為,這是 Anthropic 為了保護自己的生態系統而採取的過激手段。Twitter 用戶 IanBaer 說得很直接:
「他們真的選擇炸掉自己的公眾形象,只為了 gatekeep 一個 harness。這是瘋狂的,是典型的為了面子砍掉鼻子的例子。」
另一位用戶 klass_room_ 則指出:
「Anthropic 正在加班加點地破壞他們累積的所有好感。噢,還有 Dario 一直在各種場合說『軟體工程已死』。」
在 HackerNews 上,討論更為深入。開發者 infamia 指出了一個關鍵矛盾:
「月營收 20 億美元是靠 dogfooding(自己吃自己的狗食)達成的,這證明了 Claude Code 確實有效。但這也伴隨著軟體產業史上最大的自爆事件——洩露了他們的 1) 皇冠寶石(原始碼)、2) 下一代模型 Mythos 的存在、3) 他們的產品路線圖。」
這段評論點出了一個更深層的問題:Anthropic 的核心團隊用 Claude Code 開發 Claude Code 本身,這是強大的 dogfooding 循環,但同時也是巨大的安全隱患——開發中用到的敏感資訊全部留在 Git 歷史裡。
理性方:不要急著下結論
也有開發者認為,這可能只是一個 bug,而不是蓄意的商業策略。用戶 anjanab_ 提出了一個合理的技術解釋:
「這聽起來像是一個幻覺(hallucination)或奇怪的系統提示觸發。Claude Code 沒有所謂的『關鍵字稅』。檢查你的系統提示或 MCP 伺服器日誌。這更可能是一個工具使用循環(tool-use loop),而不是計費機制。」
這個觀點並非沒有道理。AI 模型在處理特定關鍵字時確實可能產生非預期的行為,尤其是在系統提示被動態注入大量上下文(例如 Git 歷史)的情況下。
這不僅是 OpenClaw 的問題
更令人擔憂的是,這可能不是孤立的案例。Twitter 用戶 Ipriyankrajai 指出:
「這不僅限於 OpenClaw,他們也在掃描其他檔案。例如,有一位用戶因為這個檔案在 Max 方案上被意外多收了 200 美元。」
這條線索指向了一個更廣泛的問題:Claude Code 究竟在掃描什麼?它的行為邊界在哪裡?
如果一個程式碼編輯器可以因為你在 commit 中提到了某個「不受歡迎」的字串,就拒絕幫你寫程式或向你多收費,那麼這個編輯器就不再只是一個工具,而成了一個有審查與歧視能力的「守門人」。
有開發者甚至開了玩笑說:「我們不應該再說那個以 O 開頭的字了。」(We should not say the opencl*w word anymore.)
但玩笑歸玩笑,嚴肅的開發者已經開始用行動表態:
- 有用戶直接取消了 Claude Code Max 方案,轉向 OpenAI Codex
- 有開發者表示「這是最後的稻草,我受夠了 Claude Code 的使用限制」
- 部分開發者開始尋找替代方案,包括 OpenCode、Cursor 等
從技術面來看:這可能如何運作?
要理解這個問題的技術根源,我們需要看一下 Claude Code 可能的架構設計。
根據 Anthropic 公布的技術資訊,Claude Code 是一個深度整合到終端機的 AI 程式設計助手。它會:
- 讀取當前專案的上下文(檔案夾結構、Git 歷史、最近修改)
- 根據用戶的提示生成程式碼
- 在需要時自動執行終端命令、讀取檔案、寫入檔案
問題的關鍵在於第一步。當 Claude Code 讀取 Git 歷史時,它會將 commit message、diff 內容等資訊一併納入上下文。如果系統提示中包含了針對特定競爭對手關鍵字的處理規則,那麼自然會在這些歷史中被觸發。
這不是一個典型的「幻覺」問題——模型並沒有產生虛假內容,而是在根據規則做出預期內的行為。換句話說,如果這確實是一個有意的設計,那麼它更像是一個基於關鍵字的訪問控制機制,而不是模型的錯誤。
GitHub 用戶 mlitwiniuk 在測試後也證實了:「我得親自測試看看。這太瘋狂了,Anthropic 太過分了。」
更大的圖景:AI 平台化的權力失衡
這件事放到更大的脈絡來看,其實反映了整個 AI 產業正在面臨的一個結構性問題:當 AI 平台同時擁有模型、工具和分發渠道時,它們的權力邊界在哪裡?
Anthropic 不是唯一這麼做的公司。OpenAI 也在同一個禮拜宣布,將 GPT-5.5 Cyber——一個專門的資安測試工具——限制為僅供「關鍵資安防禦者」使用。諷刺的是,他們不久前還批評 Anthropic 限制 Mythos 模型的做法。正如 TechCrunch 的報導標題:「在批評 Anthropic 限制 Mythos 之後,OpenAI 也限制了 Cyber。」
這種「雙標」行為在 HN 上被大量討論。開發者 AstroBen 的觀察相當精準:
「如果 Claude Code 真的這麼領先,他們就不會拼命想要封鎖 OpenCode 了。這是算力不足的問題。」
這一句話點出了本質:AI 公司對競爭對手的限制,往往是因為自身產能瓶頸,而非技術領先。
當 Anthropic 的 Claude Code 月營收達到 20 億美元——這個數字最初被認為是誇大,但越來越多證據顯示它接近真實——用戶量急劇膨脹的同時,運算資源卻無法無限擴充。在這種情況下,限制第三方的存取,或者說讓某些使用情境變得更貴、更麻煩,就成了一種「軟性」的供需調控手段。
對開發者社群的幾個關鍵教訓
不管你用哪個 AI 編輯器,這件事都值得你停下來思考幾分鐘:
第一,鎖定效應是真實存在的。
當你習慣了一個 AI 編輯器的操作流程、快速鍵、模型行為之後,要轉換到另一個平台的成本遠比想像中高。這不是簡單的「換一個工具」而已,而是你的整個開發習慣、心智模型、甚至程式碼庫中的某種隱含知識都需要重新適應。
第二,開源與標準化是唯一的長期解方。
OpenClaw、OpenCode 以及最近出現的 GitAgent 標準,都在嘗試建立一個「AI 代理的開放標準」。GitAgent 的設計概念——代理人只是一個裝有 agent.yaml、SOUL.md、RULES.md 的 Git 倉庫——本質上就是在對抗來自單一供應商的鎖定效應。
第三,你的 Git 歷史比你想象的更敏感。
這個事件生動地展示了:你的 commit message 不再只是給同事看的備註,它們正在成為 AI 系統判斷你「是什麼人」的依據。如果今天 Claude Code 可以因為關鍵字拒絕請求,明天會不會有其他的 AI 工具因為你 commit 中提到了「競爭產品」而降低服務品質?
Anthropic 的立場與回應
截至本文撰寫時,Anthropic 尚未正式對這起事件發表公開聲明。但根據 HN 討論中揭露的資訊,Anthropic 在 4 月初確實發布了一項政策變更:Claude Code 訂閱用戶的自動續約條款中,新增了關於「第三方工具使用」的限制條文。
具體來說,新的條款規定:
- Claude Code 的訂閱額度僅限於 Anthropic 官方推出的 Claude Code 工具
- 第三方工具(如 OpenClaw、OpenCode 等)需要使用 API 金鑰另行計費
- 違反此規定的使用行為可能導致帳戶限制
但問題是:「誰是第三方工具」的定義範圍是什麼?
如果定義是「非 Anthropic 開發的 AI 程式設計助手」,那 OpenClaw 確實符合。但如果定義被擴展到「任何在程式碼或 commit 中出現的關鍵字」,那範圍就過於廣泛了。
有用戶發現,即使是打字錯誤——例如在文件中意外加上了一個字母 c,讓 “open law” 變成 “open claw”——也可能觸發拒絕機制。開發者 aabyzov 在推文下留言:「甚至連打字錯誤都被禁止了!好奇律師們發現時會有多驚訝。」
這場爭議反映了什麼?
更深一層來看,這場爭議反映的不只是 Anthropic 和 OpenClaw 之間的競爭,更是整個 AI 產業在「護城河」與「開放性」之間的權衡。
當你的產品是用 AI 模型驅動的時候,真正的護城河是什麼?是模型的品質、資料的豐富度,還是僅限於你的工具可以存取這些模型?Anthropic 顯然選擇了後者——至少對 Claude Code 來說是這樣。
但這種選擇有其風險。正如開發社群的反應所示:當你的護城河開始讓用戶感到窒息時,他們就會選擇游走。
有用戶已經表態要轉向 OpenAI Codex,有人開始擁抱 OpenClaw,有人在觀望 Cursor 的下一步。如果這次爭議持續發酵,Anthropic 可能會在開發者社群中損失大量的品牌信任。
而品牌信任這種東西,建立起來需要數年,摧毀只需要一則推文。
寫在最後:技術的中立性是一個神話
我們總是說「技術是中立的」,但這次事件清楚地告訴我們:技術從來就不是中立的。
每一次 API 呼叫、每一行程式碼建議、每一次計費決策背後,都有人類的選擇——決定誰可以用、用多少、用在哪裡。這些選擇可能以政策條款、系統提示、模型微調的形式存在,但它們最終都指向同一個問題:
我們希望 AI 工具成為什麼樣的存在?
是一個像 IDE 那樣安靜、可靠、不帶偏見的工具,還是一個像 SaaS 產品那樣會讀取你的上下文、判斷你的行為、然後決定要不要服務你的「平台」?
這件事沒有正確答案。但如果你什麼都不記得了,至少記住這次事件——它正在為我們每個人未來的開發工具使用方式畫一條看不見的界線。
而且,你的程式碼編輯器現在會讀你的 commit 了。今天它只是因為 OpenClaw 而拒絕你,明天呢?