GitHub 上的一個 issue 引發了開發社群的熱烈討論:Claude Code 的思考深度在 2 月更新後下降了超過 70%,讓許多依賴它進行複雜工程任務的開發者感到挫折。
這不是小數字。根據 HackerNews 報導,原本約 2,200 字符的思維深度,在 2 月下旬下降到約 720 字符(-67%),3 月進一步下降到約 560 字符(-75%)。雖然之後略為回升到約 600 字符,但距離原本的水平仍有 73% 的差距。
更讓開發者困惑的是,這個變化不是一次性發生的,而是通過分階段的部署逐步推出:從 1.5% 開始,擴展到 25%、58%,最後在一週內達到 100%。這意味著,不同開發者在不同時間經歷了相同的問題,但一開始他們以為只有自己遇到了問題。
時間軸:什麼時候開始變糟?
這個問題的演變可以追溯到 1 月底。根據 issue 中的報告:
- 1 月 30 日 – 2 月 8 日(基線時期):思考深度約 2,200 字符
- 2 月下旬:思考深度下降到約 720 字符(-67%)
- 3 月 1-5 日:進一步下降到約 560 字符(-75%)
- 3 月 12 日之後(完全編輯):維持在約 600 字符(-73%)
值得注意的是,3 月 12 日之後,Claude 開始完全隱藏其思維過程(”fully redacted”),這讓開發者無法看到 AI 是如何思考問題的。對於使用 Claude Code 進行複雜重構、架構設計或深度 debugging 的工程師來說,這無疑是一個重大打擊。
Issue 中提到,某個限制機制在 3 月 8 日之後的 17 天內觸發了 173 次,平均每天超過 10 次。這意味著開發者在嘗試進行深度思考時,經常遇到系統的中斷或限制。
開發者為何如此憤怒?
讓我們從開發者的角度來理解這個問題。
想像你在使用 Claude Code 重構一個大型專案。原本,你可以看到 AI 的思維過程:它先分析了整個專案的結構,找出可能的問題點,然後逐步提出重構方案,每一步都有清晰的邏輯。這讓你能夠信任它的建議,因為你知道它是如何思考的。
現在,思維深度下降了 70% 以上,而且思維過程被完全隱藏。你仍然會得到一個「答案」,但你不知道這個答案是怎麼來的。更糟的是,因為思維深度下降,答案可能不夠全面,甚至可能遺漏重要的邏輯漏洞。
對於簡單的任務(寫一個 function、修一個 bug),這或許還可以接受。但對於複雜的工程任務(架構設計、跨模組重構、性能優化),思維深度就是一切。沒有深度思考的 AI,就像一個只會照章辦事但不理解原理的初級工程師,你怎麼能把關鍵決策交給它?
一位開發者在 issue 中寫道:「我正在重構一個微服務架構,需要考慮資料庫遷移、API 向後相容性、錯誤處理策略…Claude Code 以前能夠全面考慮這些問題,現在它給出的方案很淺層,我必須自己補上大部分思考。」
Anthropic 的回應與部署策略
截至目前為止,Anthropic 對這個問題的公開回應有限。不過,從問題的演變模式可以看出一些端倪。
分階段的部署(1.5% → 25% → 58% → 100%)是一個典型的 A/B 測試策略。但問題在於,當新版本顯然存在問題時,為什麼還要繼續擴展到所有用戶?
開發者們在 HackerNews 上提出了多個疑問:
– 是否有一個「思維配額」限制?
– 為什麼思維過程從 3 月 12 日開始被完全隱藏?
– 這個變化是為了成本考量(減少 token 使用),還是其他原因?
– Anthropic 是否有計劃恢復原本的思考深度?
值得注意的是,這不是 Claude Code 第一次引發爭議。最近還有另一個 issue 指出,Claude Code 會將用戶鎖定在外數小時,讓開發者無法繼續工作。
對台灣開發社群的影響
雖然這個問題發生在國際社群,但對台灣開發者的影響是直接的。許多台灣新創公司和開發團隊使用 Claude Code 來提高開發效率,特別是在:
- 複雜系統的重構
- 跨語言專案的整合
- 程式碼審查和技術債務清理
- 架構設計和技術選型
當思維深度下降,這些任務的效果會大打折扣。一個台灣開發者表示:「我們的後端重構原本預計 2 週完成,現在因為 Claude Code 的思考不夠深入,我們必須花更多時間審核和修改它的建議,進度已經落後 3 天。」
開發者可以怎麼做?
如果你正在使用 Claude Code,遇到思維深度下降的問題,這裡有一些策略:
短期應對:
-
將複雜任務拆解成更小的步驟:不要讓 AI 一次性處理大型重構,把它拆分成多個小任務,每個任務專注於一個模組或功能。
-
使用明確的提示詞強調深度思考:在提問時,加入「請詳細說明你的思考過程」、「請考慮所有可能的邊緣情況」等指令,儘管效果可能有限。
-
保留思維過程的快照:如果 Claude Code 還會偶爾顯示思維過程,把它保存下來,這對於理解 AI 的決策邏輯很有幫助。
-
尋找替代方案:如果問題持續,可能需要考慮其他 AI 工具(如 GitHub Copilot、Cursor 等),或者回歸傳統的開發方式。
長期策略:
-
持續關注 Anthropic 的更新:這個問題可能會在未來的版本中修復。關注 GitHub issue 和 HackerNews 上的討論,了解最新進展。
-
參與社群討論:如果你也在 HackerNews 或 GitHub 上遇到類似問題,分享你的經驗。更多聲音可能會促使 Anthropic 採取行動。
-
評估你的 AI 工具組合:不要把所有雞蛋放在一個籃子裡。準備多個 AI 工具,根據任務類型選擇最合適的。
-
思考 AI 輔助開發的邊界:這次事件提醒我們,AI 在複雜工程任務中的能力還是有限度的。找到 AI 和人類工程師的最佳協作模式,才是長久之計。
這件事的啟示
Claude Code 的思考深度下降問題,暴露了 AI 工具開發中的一個核心矛盾:成本與品質的權衡。
從技術角度來看,減少思維深度可以降低 token 使用量,從而節省成本。但從用戶角度來看,思維深度正是 Claude Code 的核心價值。犧牲核心價值來降低成本,顯然不是一個明智的商業決策。
更值得思考的是,這個問題的處理方式。分階段部署通常用於測試新功能,但如果測試發現問題,應該立即停止,而不是繼續擴展到所有用戶。這讓開發者對 Anthropic 的產品決策產生了疑問。
對台灣的 AI 應用開發者來說,這是一個重要的提醒:當我們依賴 AI 工具時,必須有備案。技術工具會改變,會出錯,會不如預期。真正專業的開發者,不會把所有希望寄託在一個工具上,而是會建立一個有彈性的工作流程,能夠在工具變化時快速調整。
最後,這件事也提醒我們,AI 的思維過程本身就是一種透明度。當 AI 隱藏它如何思考時,我們就失去了對它的信任。對於用於工程決策的 AI 工具來說,透明度不是可有可無的功能,而是基礎要求。
期待 Anthropic 能夠聽到社群的聲音,恢復 Claude Code 的思考深度,或者至少給出一個清楚的解釋。畢竟,開發者最在乎的不是「這個功能省了多少錢」,而是「這個工具能不能真正幫我解決問題」。