GitHub 上的一個 issue 揭露了一個細節:Anthropic 在 2026 年 3 月 6 日將 Cache TTL 從 1 小時降級到 5 分鐘,卻沒有公開通知用戶。

這個看起來微小的變更,正在造成實質的帳單膨脹。

根據 HackerNews 上的討論,一名開發者分析了從 1 月 11 日到 3 月 26 日的原始 Claude Code session JSONL 檔案後發現,這個調整導致快取建立成本增加了 20–32%,訂閱用戶的配額消耗也明顯上升。

問題的核心在於:當 Cache TTL 縮短到 5 分鐘時,系統需要更頻繁地重新建立快取。分析顯示,每隔一個月就有 15–53% 的額外支出來自於這些 5 分鐘快取的重建。

最值得注意的是,這種浪費的比例在各個模型層級中完全相同——都是 17.1%。原因很簡單:這完全取決於 5 分鐘快取和 1 小時快取的 token 分配比例,與每個 token 的價格無關。

為什麼 Cache TTL 這麼重要?

要理解這個變更的影響,先要知道什麼是 Cache TTL。

在 Claude 的定價模型中,快取內容的價格比一般輸入便宜得多。當你送給 Claude 一段 prompt,它會將這些內容暫存在快取中,後續的請求如果讀取到相同的快取,就不需要重複支付完整輸入的價格。

Cache TTL(Time To Live)決定了快取的有效時間。如果 TTL 是 1 小時,表示你的快取內容可以在一小時內重複使用;如果 TTL 縮短到 5 分鐘,那麼系統很快就會把快取丟掉,需要重新建立。

這對於大量使用快取的應用來說差異巨大。想像一下,你有一個需要重複查詢相同資料庫結構的開發場景:如果快取能維持 1 小時,你在這一小時內的所有請求都能享受快取優惠;但縮短到 5 分鐘後,快取很快過期,每次請求可能都需要重新建立快取。

1 小時變 5 分鐘,實際多了多少錢?

根據分析數據,每個月都有顯著的過度支付。以 15–53% 的額外支出計算,如果一個月原本的快取成本是 100 美元,現在可能需要多付 15 到 53 美元。

對於訂閱用戶來說,這更直接體現在配額消耗上。原本可能完全不會碰到上限的用戶,開始收到配額不足的通知。

開發社群的反應很直接。GitHub issue 下的討論顯示,許多用戶對於「悄悄變更」感到不滿。他們認為,這種影響成本和配額的調整,應該要有更明確的通知機制。

為什麼是 17.1%?

這個數字看起來很精確,但它背後的邏輯很簡單。

因為浪費比例完全由 5 分鐘快取和 1 小時快取的 token 分配決定,而不是每個 token 的單價。所以不管你用 Haiku、Sonnet 還是 Opus,浪費的比例都是一樣的。

這意味著這不是一個「特定模型層級」的問題,而是整個定價結構的設計問題。當快取 TTL 縮短,所有層級的用戶都會受到相同的比例影響。

開發者的實際案例

在 HackerNews 的討論中,有人分享了這種變更帶來的實際影響。

一名使用 Claude Code 進行開發的用戶指出,他原本的每月配額從來沒有用完過,但在 3 月之後開始收到配額警告。他詳細追蹤了自己的使用情況後,發現請求模式沒有改變,但成本卻明顯上升。

這說明問題不在於「用量增加」,而在於「單位成本提高」。同樣的工作流程,現在需要花更多的錢。

Anthropic 的回應

截至報導時,Anthropic 對於這個問題的公開回應有限。

開發社群期待的是兩件事:一是明確的變更通知,二是可能的價格補償或調整。對於已經產生的額外支出,用戶希望有合理的處理方式。

對於台灣用戶的啟示

這個事件提供了一個重要的觀察角度:AI 服務的定價機制正在快速演變,而許多變更可能不會以明顯的方式通知。

對於大量使用 Claude 或類似服務的台灣開發者和企業來說,這意味著需要建立更仔細的成本追蹤機制。定期檢視帳單變化、記錄使用模式,才能在發現異常時快速反應。

特別是在訂閱模式下,配額的管理變得更重要。如果沒有定期監控,可能在不知不覺中就因為「設定變更」而超出預算。

實務上的因應方式

面對這種情況,有幾個實際的做法值得考慮:

  1. 設定成本警報:定期檢查帳單,如果發現異常增加,立即追查原因。

  2. 追蹤使用模式:記錄自己的使用習慣,包括 API 呼叫頻率、快取命中率等指標。

  3. 關注社群討論:HackerNews、GitHub issues 這些平台常常會揭露類似的問題,保持關注可以及早發現。

  4. 向服務提供商詢問:如果發現異常的帳單變化,直接聯繫支援團隊,詢問是否有定價機制的調整。

  5. 備選方案評估:在 AI 工具市場逐漸成熟的現在,持續評估其他替代方案也是必要的風險管理。

這件事告訴我們什麼?

這個事件不只是一個技術問題,更是一個透明度和溝通問題。AI 服務的定價機制正在快速演變,但用戶的期望標準也在提高。

用戶期望的是:當一項服務的定價機制發生影響成本的變更時,應該有明確的通知,讓用戶有機會調整自己的使用策略或評估替代方案。

對於服務提供商來說,在快速迭代的技術環境中,如何在「靈活調整」和「穩定預期」之間找到平衡點,是一個重要的課題。

最後,這也提醒我們:在依賴雲端服務的時代,定期審查自己的技術堆疊和成本結構,不再是一個選項,而是一個必要。市場在變,價格在變,唯有保持警覺,才能在這些變化中保持競爭力。