來源: GitHub(aattaran/deepclaude),HackerNews 熱議
如果你正在用 Claude Code 寫程式,有個數字可能讓你坐不住:DeepSeek V4 Pro 在 LiveCodeBench 拿到 96.4%,但每百萬輸出 token 只要 $0.87,是 Claude 的十七分之一。
不是「差不多便宜」——是整整一個數量級。
GitHub 上一個名為 DeepClaude 的開源專案,做的事情就是這麼直白:把 Claude Code 的後端換掉,讓它用 DeepSeek V4 Pro、OpenRouter,或者任何跟 Anthropic API 相容的模型來執行任務。介面完全不變,指令全部照打,產出的程式碼品質卻幾乎沒差。
十七倍的差距,足以讓每個認真寫程式的人都停下來看一眼。
它是怎麼運作的?
DeepClaude 的設計邏輯很單純:它是一個模型代理層(model proxy),架在 Claude Code 和實際的 LLM 後端之間。
正常來說,Claude Code 只認 Anthropic 的 API。你下次 /code 指令,它就去 Anthropic 的伺服器請求回應。DeepClaude 在中間攔截這個請求,然後把它轉送到你指定的後端——可以是 DeepSeek V4 Pro,也可以是 OpenRouter 上任何相容的模型。
這個架構之所以可行,是因為 Claude Code 本身透過標準的 HTTP API 與 Anthropic 伺服器通訊。Anthropic 的 API 格式已經被業界廣泛支援——DeepSeek 和 OpenRouter 都提供了相容的端點。DeepClaude 的角色就是一個格式轉譯器:收到 Claude Code 的請求後,把它重新包裝成目標模型能理解的格式,再轉送出去。收到回應後,再反過來轉換回 Anthropic 的格式還給 Claude Code。
專案作者 aattaran 在 README 中提供了詳細的安裝步驟。程式碼量不大,核心邏輯集中在 HTTP 代理和格式轉換上,結構清晰。
要啟動它,步驟很簡單:
- 在本機執行 DeepClaude 的代理伺服器(預設跑在 localhost:3200)
- 把 Claude Code 的 API 端點指向這個代理
- 完成
要切換模型後端,只需要一個 curl 指令:
# 切換到 DeepSeek
curl -sX POST http://127.0.0.1:3200/_proxy/mode -d "backend=deepseek"
# 切回 Anthropic
curl -sX POST http://127.0.0.1:3200/_proxy/mode -d "backend=anthropic"
# 切到 OpenRouter
curl -sX POST http://127.0.0.1:3200/_proxy/mode -d "backend=openrouter"
甚至可以在 Claude Code session 裡直接打 /deepseek、/anthropic、/openrouter 來切換——不需要重啟任何東西。這種設計讓開發者可以在同一個 session 中,針對不同任務動態選擇最適合的模型,而不需要重新設定環境。
仔細看這個價格差距
很多人看到 $0.87 vs $15 就覺得「便宜很多」,但實際開發環境中的差距遠比這個數字驚人。
Claude Code 的工作模式是:每一次程式碼請求、每一次分析、每一次重構建議,都會觸發一輪 API 呼叫。在密集開發的 session 中,一個小時可能輕鬆消耗 30 萬-50 萬個輸出 tokens。
用 Anthropic 官方 API 跑這樣的用量,一個小時就是 $4.5-$7.5。用 DeepSeek V4 Pro,同樣的輸出量只要 $0.26-$0.44。
換算成一天八小時的開發:Anthropic 成本約 $36-$60,DeepSeek 約 $2-$3.5。
這就是為什麼「十七倍」不只是數字遊戲。對於每天高度依賴 AI 輔助開發的團隊來說,這個差距直接決定了它們能不能無壓力地全面使用這項技術。
DeepSeek V4 Pro 的實力在哪裡?
DeepSeek V4 Pro 不是什麼新秀——它是目前開源模型陣營的領頭羊之一。
根據專案頁面提供的數據,它在 LiveCodeBench 上得分 96.4%。LiveCodeBench 是一個專門評測程式碼生成能力的基準,測試範圍涵蓋演算法實作、程式碼修復、單元測試生成等真實開發場景。
對比一下:GPT-4o 在同樣測試中大約在 90-92% 區間,而 Claude Sonnet 則在 93-95% 左右。96.4% 意味著 DeepSeek V4 Pro 在程式碼生成品質上,已經和頂級封閉模型站在同一條線上。
LiveCodeBench 的測試設計也值得了解一下。它不是只測「寫一個排序演算法」這種基礎任務,而是包含了多輪互動式的程式設計挑戰——給模型一個 GitHub issue 描述,讓它讀懂整個 repository 的架構,然後提交一個完整的 PR 修復。這個過程需要模型理解已存在的程式碼上下文、遵循既有的程式碼風格、以及寫出不會破壞現有功能的修改。能在這個測試中拿到 96.4%,代表 DeepSeek V4 Pro 不僅會「寫程式」,更會「參與一個專案」。
DeepSeek V4 Pro 還有一個隱藏優勢:它對中文提示詞的理解能力很強。這對非英語母語的開發者來說特別重要。當你用中文描述「幫我把這個 sorting function 改成 stable sort,然後在 edge cases 中加 log」,DeepSeek V4 Pro 能準確理解,不會像某些模型一樣中英文混雜時開始迷失。
對開發者來說,這代表什麼?
把視角拉回實務層面,DeepClaude 解決的不是「技術上有沒有可能」的問題,而是「開發者願不願意打開錢包」的問題。
如果你是獨立開發者或小團隊,Claude Code 的訂閱成本可能還負擔得起。但如果你正在跑 CI/CD 流程、自動化程式碼審查、或批次處理大量重構任務——token 消耗就不是幾塊錢能打發的。
DeepClaude 的主要使用情境有幾個:
日常開發:AI 輔助不再算著用量
用 Claude Code 寫一小時代碼,如果用官方的 Anthropic API 按 token 計費,大約要花 $2-$5 美金。聽起來不多,但一天八小時、一週五天,一個月就是 $320-$800。對 freelancer 或小型新創來說,這筆錢不是花不起,但每次都讓人心裡算計著「這個問題值得送給 AI 嗎?」
換成 DeepSeek V4 Pro,同樣的使用量變成 $18-$47 一個月。從「要不要訂 Netflix 的掙扎」直接降到「一杯珍奶的成本」。
這不只是省錢的問題——它改變了開發者的心理模型。當 AI 輔助工具的成本從「我得精打細算地使用」變成「隨便用沒關係」的時候,開發者對 AI 的使用方式會從「最後手段」變成「第一個嘗試的方案」。這個轉變對生產力的提升是質變,不是量變。
批次處理和自動化腳本
很多人不知道,Claude Code 不只可以在終端機裡互動使用。它有一個 headless mode(-p 參數),可以用來跑預先寫好的腳本,把程式碼分析、重構、測試生成等工作串成自動化流程。
但 headless mode 的 token 消耗特別快——沒有對話輪次的自然限制,模型會一直輸出直到任務完成。一段複雜的重構,一次可能就要噴掉幾萬甚至十幾萬個 tokens。
用 DeepClaude 跑這些批次任務,成本壓力大幅降低。你可以放心讓 AI 把整個程式碼庫掃過一遍,不用每跑一次就打開計費儀表板。
模型切換的彈性
DeepClaude 比較聰明的一點,是它讓開發者可以依任務動態切換模型。
舉例來說,一般的程式碼補全和簡單 debug,用 DeepSeek V4 Pro 就夠了——省錢、品質也不差。但當你遇到特別複雜的架構設計問題,或者需要模型有極高的指令遵循能力時,你可以即時切回 Anthropic 的 Claude。
這種「按任務選模型」的模式,本質上就是模型路由(model routing)的概念。只是 DeepClaude 用一個代理層就解決了,不需要整合多個 API 客戶端。
實際操作起來就像這樣:你正在寫一個 REST API 的 CRUD 功能,用 /deepseek 切到 DeepSeek 來完成——足夠了,很省錢。然後遇到一個複雜的資料庫查詢優化問題,打 /anthropic 切回 Claude——多花點錢但拿到更精確的建議。處理完再切回來繼續省。在同一個工作階段中完全無縫切換。
真正的門檻:不是技術,而是習慣
DeepClaude 的安裝流程並不複雜。啟動代理伺服器、設定環境變數、收工。整個過程大概五分鐘。
但開發者社群對「把第三方模型掛在 Claude Code 後面」這件事,反應很兩極。
一部分人認為這是理所當然的趨勢——模型只是後端,使用者體驗才是核心。誰提供最好的性價比,就用誰的。
另一部分人則抱持疑慮:DeepSeek 的模型真的能完全取代 Claude 嗎?在特定的邊緣案例中,DeepSeek V4 Pro 會不會給出品質較差的回覆?萬一 API 不相容了怎麼辦?
這些擔憂都有道理。但從 HackerNews 上的討論來看,實際用過的人普遍回報「體驗幾乎沒差」。程式碼生成這類任務,對模型細節差異的敏感度本來就比較低——只要會寫程式、不要寫錯,對開發者來說就是好模型。
另一個值得注意的點是:DeepSeek V4 Pro 是開源模型。這意味著你可以自己部署、完全掌控資料,不用擔心程式碼透過 API 送到第三方伺服器。對於有資安考量的團隊來說,能夠自行部署模型本身就是一個重要的優勢。
台灣開發者該怎麼用起來?
如果你在台灣做軟體開發,想試試 DeepClaude 的效果,這裡是一套實際可行的操作步驟:
第一步:先確認你的工具鏈
DeepClaude 需要你已經有 Claude Code 的環境。如果你還沒用過 Claude Code,先從安裝 Anthropic 的 CLI 工具開始。這通常需要一個 API key 和 Node.js 環境。確認你的 Claude Code 可以正常運作後,再進行下一步。
第二步:下載 DeepClaude
git clone https://github.com/aattaran/deepclaude
cd deepclaude
專案本身是輕量級的,不需要複雜的依賴安裝。看一下 README 確認有沒有特殊的系統需求——目前看起來在 macOS 和 Linux 上都可以正常運作。
第三步:啟動代理伺服器
# 根據專案說明啟動
# 代理伺服器預設跑在 http://127.0.0.1:3200
啟動後確認服務正常運作,你可以用 curl 測試一下代理端點是否有回應。
第四步:把 Claude Code 指向代理
設定環境變數或直接在 Claude Code 設定中修改 API 端點,指向你本機的 DeepClaude 伺服器。這個步驟的具體指令在專案的 README 中有詳細說明。
第五步:切到 DeepSeek 後端開始工作
curl -sX POST http://127.0.0.1:3200/_proxy/mode -d "backend=deepseek"
然後在 Claude Code 中輸入 /deepseek,確認代理層已經切換完成。
第六步:比較兩者的差異
建議你先用一個小型專案做對比——同一個任務,分別用 Anthropic 後端和 DeepSeek 後端各跑一次,看看程式碼品質的差異是否真的可以忽略。
很多開發者回報,在實際使用中兩者幾乎沒有差別,但費用帳單上的差異卻非常明顯。也有少數人發現 DeepSeek 在特定類型的任務上表現較弱——比如需要嚴格遵循多層次指令的場景。這需要你根據自己的工作類型來評估。
誰會從 DeepClaude 獲益最多?
獨立開發者和小型工作室是最大的受益者。對他們來說,每個月的開發工具支出是一筆需要精算的成本。DeepClaude 的出現讓 AI 輔助開發的成本從「需要取捨」變成「不用多想」。
正在大規模使用 AI 輔助編碼的團隊也是。如果你們每天有大量的 CI/CD 自動化流程在跑,或者正在做大型專案的程式碼重構,token 消耗是一個非常現實的成本問題。DeepClaude 可以讓你把例行性的程式碼生成任務切到 DeepSeek,保留 Claude 給最複雜的任務。
教育和學習用途也是一個值得注意的場景。學生或正在轉職的學習者,通常預算有限但使用需求高。DeepClaude 讓學程式的人可以放心地把 AI 當作學習夥伴,不用一邊寫 code 一邊擔心花太多錢。這對台灣的程式設計教育環境來說,可能是一個意外的幫助——降低 AI 輔助學習的財務門檻。
值得關注的潛在風險
當然,DeepClaude 不是沒有風險。
最大的問題是 API 相容性。DeepClaude 本質上是在仿造 Anthropic 的 API 行為。如果 Anthropic 調整了 API 規格,或者 DeepSeek 修改了它們的回應格式,中間的代理層可能就需要更新。開源專案的維護狀況直接決定了這個工具的可靠性。在選擇使用前,建議先確認一下專案是否有持續更新、是否有多位維護者。
另一個風險是 品質變異。雖然 DeepSeek V4 Pro 在 LiveCodeBench 上得分很高,但程式碼生成是一個很複雜的領域。某些特定類型的任務——比如說要遵循極其複雜的指令、或者需要對程式碼庫有深度理解的場景——Claude 可能還是表現更好。開發者需要對自己的工作類型有判斷,知道什麼時候換回原本的模型。
最後是 資料隱私。如果你把 DeepClaude 指向 DeepSeek 的 API,你的程式碼就會經過 DeepSeek 的伺服器。對於處理敏感程式碼的團隊來說,這可能是一個問題。解決方案是自行部署 DeepSeek V4 Pro,但這又需要額外的 GPU 資源和維護成本。根據開發社群分享的經驗,自行部署的門檻並不低,需要至少一張高記憶體的 GPU。對於一般開發者來說,使用 DeepSeek 的雲端 API 仍然是比較實際的選擇。
開發工具市場正在發生什麼?
DeepClaude 不是孤例。它是一個更大趨勢的縮影:開發者正在用開源工具把封閉生態系統「拆開來重新組合」。
過去一年,我們已經看到:
– 各種 LLM 路由器(如 OpenRouter、Portkey)讓開發者可以在不同模型之間切換
– 開源模型的品質快速追趕,多個模型在程式碼生成上達到或接近封閉模型的水準
– 價格戰讓 token 成本持續下降,但深度使用者的絕對花費反而在上升——因為使用量增加的速度比價格下降的速度還快
DeepClaude 把這些趨勢濃縮成一個實用的工具。你不必管理多個 API 金鑰、不用學新指令、不用改變工作流程。只要幾行程式碼,你的 Claude Code 就可以用上更便宜的模型。
這件事情最大的意義,不在於省了多少錢,而在於它把選擇權還給了開發者。
過去,你用 Claude Code 就只能付 Anthropic 的定價。現在你可以決定:這個任務值得花比較多錢、那個任務省錢就好。模型變成了一個可替換的元件,而不是綁死在工具鏈上的一個環節。
對於習慣「自己動手打造開發環境」的工程師來說,這才是 AI 工具應該有的樣子——靈活、可控制、不被綁架。
寫在最後:工具市場的競爭對開發者永遠是好事。DeepClaude 不一定適合每一個人——如果你的使用量不大,Claude Code 官方方案就夠了。但如果你每天都和 AI 打交道寫程式,十七倍的成本差異值得你花五分鐘試試看。就算最後覺得不順手,你至少多了一個選擇。