一句話,省下每月 20 美元的 AI 訂閱費
你的 MacBook 裡,已經裝了一個 AI 模型。
它不是你需要花錢購買的 ChatGPT Plus,也不是需要信用卡才能使用的 Claude Pro。它就睡在你的 macOS 系統裡,等著你叫醒它。
這個 AI 完全免費、完全本地運算、完全不需要網路。只要一個指令,它就能從你的終端機回答問題、翻譯文字、生成程式碼。
它的名字叫 apfel——德文裡的「蘋果」。
Apple 把它藏起來了
從 macOS 26(代號 Tahoe)開始,每一台 Apple Silicon Mac 都內建了一個語言模型,這是 Apple Intelligence 的一部分。這個模型大約有 30 億個參數,使用混合的 2-bit 和 4-bit 量化,專門在 Apple 的 Neural Engine 上運行。
但 Apple 把它鎖住了。
在預設情況下,這個內建模型只能透過 Siri、寫作工具和系統功能使用。你無法在終端機呼叫它,無法透過 HTTP API 存取它,無法把它整合到你的開發流程裡。Apple 提供了 FoundationModels.framework 這個 Swift API,但你需要寫一個完整的 Swift 應用程式才能用上它。
為什麼 Apple 這麼做?有幾個可能的原因:
- 使用者體驗:Apple 希望使用者透過友善的介面使用 AI,而不是終端機和 API。
- 隱私控制:限制存取方式可以確保使用者知道什麼時候在使用 AI,避免背景隱密地使用。
- 生態系統控制:Apple 想要控制 AI 的使用方式,確保符合他們的設計原則和隱私標準。
無論原因為何,這個限制對開發者來說很煩人。你有一個免費、本地、隱私優先的 AI,但你無法用它來輔助開發。
於是,開發者 Franz Enzenhofer 做了 apfel。
apfel 是什麼?
apfel 是一個 Swift 6.3 二進位檔案,它包裝了 LanguageModelSession,用三種方式釋放 Mac 內建的 AI:
- UNIX 命令列工具:支援 stdin、stdout、JSON 輸出、檔案附件,完美結合 jq、xargs 和 shell scripts。
- OpenAI 相容的 HTTP 伺服器:在 localhost:11434 跑起來,任何 OpenAI SDK 都可以直接替換成它。
- 互動式聊天介面:支援多輪對話、自動 context 管理和系統提示詞。
安裝只需要一行:
$ brew install Arthur-Ficial/tap/apfel
安裝完成後,你就可以直接在終端機使用:
$ apfel "奧地利的首都是什麼?"
奧地利的首都是維也納。
$ apfel -o json "翻譯成德文:蘋果" | jq .content
"Apfel"
為什麼這很重要?
零成本
apfel 沒有 API 金鑰、沒有訂閱費、沒有按 token 計費。這是你的硬體——你想怎麼用就怎麼用。
對開發者來說,這意味著你可以免費用 AI 來:
- 生成和除錯 shell scripts
- 解釋錯誤訊息和程式碼片段
- 快速翻譯和文字轉換
- 自動化日常工作流程
不需要擔心 token 用量,不需要記錄支出,不需要選擇哪個 AI 服務商更划算。
假設你是一個全職開發者,每天用 AI 輔助工作 2 小時,平均每小時消耗 1 萬個 tokens。使用 OpenAI GPT-4(假設 $0.01/1K tokens),這代表每個月要花大約 $600(約新台幣 20,000 元)。即使使用 GPT-4o-mini,每個月也要花 $60(約新台幦 2,000 元)。
用 apfel,這些錢完全省下來。
對台灣的開發者來說,這特別有意義。台灣的薪資水準雖然高,但 AI 訂閱費在台幣換算下還是挺貴的。一個月 $20 的 ChatGPT Plus,換算成台幣是 $660,大約是一般工程師一天半的餐費。用 apfel,這筆錢可以省下來買咖啡、吃飯,或者投資到其他地方。
100% 本地運算
apfel 生成的每一個 token 都是在你的 Apple Silicon 上完成的。沒有任何資料離開你的裝置,從來沒有。
這有兩層保護:
- Apple 的層面:FoundationModels.framework 不需要網路連線就能運作,完全在 Neural Engine 上執行。你的提示詞和回應永遠不會離開裝置,而且使用者資料從不用於訓練。
- apfel 的層面:沒有 analytics、沒有 telemetry、沒有追蹤、沒有自動更新檢查、沒有 crash reporting、沒有向任何伺服器報告。它是開源的,完全可稽核。
對在乎隱私的使用者來說,這是關鍵差異。你可以用 apfel 處理敏感的程式碼、私人筆記、商業文件,完全不用擔心資料會被送到雲端。
舉個例子,假設你在一家處理用戶個資的台灣新創公司工作。你需要用 AI 來處理客戶的姓名、地址、電話號碼。如果使用雲端 AI,你需要確保這些資料在傳輸和儲存時都經過加密,還要確保 AI 服務商符合台灣個資法的要求。
用 apfel,這些資料從來沒有離開你的 Mac,完全在本地處理。這大大降低了法規和隱私的風險。
開箱即用
apfel 不需要下載任何 LLM。它使用的就是 macOS 已經內建的 Apple Foundation Model (AFM)。安裝後立刻可以用,不需要等待模型下載完成,不需要設定模型路徑,不需要管理模型版本。
相比之下,Ollama 和 LM Studio 雖然提供更多模型和更大的上下文視窗,但需要額外下載模型,設定也更複雜。apfel 用的是你已經付錢買到的東西——你的 Mac 和裡面的 macOS。
這對新來者特別友好。你可能剛開始學 AI 輔助開發,不想花時間搞懂什麼是 quantization、什麼是 GPU memory、什麼是 model size。你只想試試用 AI 輔助寫程式。apfel 就是為這種場景設計的——安裝、用、不用想太多。
實際使用場景
終端機助手
apfel 設計成管道友好,可以直接整合到你的工作流程:
# 解釋一個複雜的命令
$ explain "awk '{print $1}' file | sort -u"
# 自然語言生成 shell 命令
$ cmd "find all .log files modified today"
# 生成 pipe chains
$ oneliner "count unique IPs in access.log"
# 摘要最近的 git commits
$ gitsum
這些指令(cmd、oneliner、explain、gitsum)其實是 apfel 的別名。apfel 設計成可以建立別名,讓你用簡短的名稱呼叫不同的功能。這讓 apfel 可以適配各種工作流程,而不需要每次都打長指令。
假設你在處理一個大型專案的日誌檔案。你想找出今天所有修改過的 .log 檔案,並且看看裡面有什麼錯誤。用 apfel,你可以這樣做:
$ cmd "find all .log files modified today"
find . -name "*.log" -mtime -1
$ oneliner "extract all error messages from today's logs"
find . -name "*.log" -mtime -1 -exec grep -i "error" {} \;
$ apfel "What are common errors in my logs?"
<貼上日誌內容>
這種工作流程雖然簡單,但對日常開發來說非常實用。你可以用自然語言描述你想要的操作,讓 apfel 生成命令,然後用管道把結果餵回去讓 apfel 分析。
OpenAI 相容伺服器
啟動伺服器模式:
$ apfel --serve
Server running on http://127.0.0.1:11434
然後任何 OpenAI 客戶端都可以替換使用:
from openai import OpenAI
# 只改 base_url 就好
client = OpenAI(
base_url="http://localhost:11434/v1",
api_key="unused" # 不需要驗證
)
resp = client.chat.completions.create(
model="apple-foundationmodel",
messages=[{
"role": "user",
"content": "What is 1+1?"
}],
)
print(resp.choices[0].message.content)
這意味著你可以把現有的應用程式、腳本、工具從 OpenAI API 切換到本地的 apfel,只需要改一行設定。
舉個例子,假設你有一個用 Python 寫的自動化腳本,原本用 OpenAI API 來摘要 Jira ticket。你可以把 base_url 從 https://api.openai.com/v1 改成 http://localhost:11434/v1,其他程式碼完全不用動。
這對既有專案的遷移特別友善。你不需要重寫整個應用程式,只需要改一個設定,就可以從雲端 AI 切換到本地 AI。
MCP 支援
apfel 原生支援 Model Context Protocol (MCP),可以連結工具伺服器:
$ apfel --mcp ./mcp/calculator/server.py "What is 15 times 27?"
tool: multiply({"a": 15, "b": 27}) = 405
15 times 27 is 405.
MCP 讓 apfel 可以呼叫外部工具——計算器、API、資料庫,任何你能寫成伺服器的功能。這擴大了本機模型的應用範圍,讓它能處理需要外部資源的任務。
假設你在寫一個財務分析工具,需要從公司的資料庫查詢銷售數據,然後做分析。你可以寫一個 MCP 伺服器來連結資料庫,然後讓 apfel 透過 MCP 呼叫這個伺服器:
$ apfel --mcp ./database_server.py "What is our total revenue this month?"
tool: query({"sql": "SELECT SUM(revenue) FROM sales WHERE month = '2026-04'"}) = 150000
我們這個月總營收是 15 萬。
這讓 apfel 可以處理原本超過它能力範圍的任務,比如數學運算、資料庫查詢、API 呼叫。
互動式聊天
$ apfel --chat -s "You are a coding assistant"
Chat started. Type /quit to exit.
> 如何反轉一個 Python list?
你可以使用 list[::-1] 或 reversed() 方法:
聊天模式支援多輪對話,自動管理 context,提供五種修剪策略來處理 4K 的上下文視窗。這讓你可以在有限的視窗內進行較長的對話,而不需要手動管理 token 數量。
對於需要連續思考的任務,比如逐步除錯、程式碼重構,聊天模式特別有用。你可以讓 apfel 一步步引導你完成任務,而不是一次性要它給出完整答案。
限制與現實
apfel 不是完美解決方案,它有明確的限制:
4,096 tokens 上下文視窗
輸入加輸出總共 4,096 tokens,大約 3,000 字。這對單次任務、短對話、文字轉換足夠,但不適合長對話或處理大文件。
Apple 故意把視窗設得很小。為什麼?可能是為了降低硬體負擔,也可能是為了鼓勵使用更強大的雲端模型。
對開發者來說,這意味著你需要把任務拆成小步驟。你不能把整個程式碼庫丟進去讓 apfel 分析,你需要一個檔案一個檔案地處理。
舉個例子,假設你想讓 apfel 重構一個大型專案。你不能直接把所有檔案餵進去,你需要:
- 先讓 apfel 理解專案架構
- 然後讓它重構每個檔案
- 最後檢查整體的一致性
這雖然麻煩,但 apfel 的管道和 JSON 輸出讓這種自動化流程可行。你可以寫一個 script 來自動遍歷檔案,用 apfel 處理每個檔案,然後把結果整合起來。
模型能力有限
根據官方文件,apfel 的內建模型:
擅長:
– shell scripting
– 文字轉換和重組
– 分類任務
– 短摘要
– JSON 重構
– 翻譯
有限:
– 數學運算
– 事實回憶
– 長對話
– 複雜的程式碼生成
模型傾向於拒絕回答而不是產生幻覺。這是 Apple 的刻意設計——寧可說不知道,也不要亂編資料。
這意味著你不能期望 apfel 做複雜的程式碼重構、長篇文章寫作或深度研究。但對日常的程式開發、文字處理、自動化腳本,它已經足夠。
對台灣的開發者來說,apfel 的翻譯能力特別實用。它支援中文,可以快速在繁體、簡體、英文之間翻譯。雖然翻譯品質不如專業的翻譯服務,但對於程式碼註解、文件草稿、快速理解英文文章,已經足夠。
系統要求
apfel 需要:
– Apple Silicon (M1 或更新)
– macOS 26 (Tahoe) 或更新
– Apple Intelligence 啟用
如果還在用 Intel Mac 或較舊的 macOS 版本,apfel 無法使用。
這是最大的門檻。如果你的硬體不支援,你沒辦法用 apfel。對台灣的開發者來說,這意味著你可能需要升級 Mac。
但這也是 apfel 的優勢——它專注於一個明確的硬體平台,優化得很好。它不需要像 Ollama 那樣支援多種平台,不需要像 LM Studio 那樣支援多種模型,它可以專注在 Apple Silicon 的最佳化。
誰該用 apfel?
適合 apfel 的使用者:
- 開發者:需要 AI 輔助但不想付費訂閱,處理的任務大多是文字轉換、命令生成、短摘要。
- 隱私敏感的使用者:不想把程式碼、文件送到雲端,需要完全本地的 AI。
- 自動化愛好者:想把 AI 整合到 shell scripts 和工作流程,需要管道友好和 JSON 輸出。
- 預算有限的開發者:學生、初學者、個人專案,需要免費且夠用的 AI 工具。
不適合 apfel 的使用者:
- 需要長上下文的應用:處理大文件、長對話、複雜分析。
- 需要高準確度的任務:數學運算、事實查證、需要精確輸出的工作。
- 使用舊硬體的使用者:Intel Mac 或未升級到 macOS 26 的使用者。
- 需要強大模型的專業使用者:處理複雜的程式碼重構、長篇文章寫作、深度研究任務。
跟其他工具的比較
| 特性 | apfel | Ollama | LM Studio | ChatGPT Plus |
|---|---|---|---|---|
| 安裝複雜度 | 簡單 (1 指令) | 中等 | 中等 | 簡單 (網頁) |
| 模型選擇 | 1 個 (固定) | 多個 | 多個 | 多個 |
| 上下文視窗 | 4K tokens | 可變 | 可變 | 可變 |
| 本地運算 | 100% | 100% | 100% | 0% |
| 隱私 | 最高 | 高 | 高 | 低 |
| 成本 | $0 | $0 (硬體) | $0 (硬體) | $20/月 |
| 設定需求 | macOS 26 | 多平台 | 多平台 | 網路 |
apfel 的定位很清楚:它不是要取代所有 AI 工具,而是為特定使用者提供特定需求的最佳解決方案。
Ollama 和 LM Studio 適合想要探索不同模型、需要更大上下文視窗的使用者。ChatGPT Plus 適合需要最強模型、不在意雲端的使用者。apfel 適合想要免費、本地、隱私優先、整合到工作流程的使用者。
如何開始使用?
1. 檢查系統要求
# 檢查 macOS 版本
$ sw_vers
ProductName: macOS
ProductVersion: 26.0.0
BuildVersion: 26A369
# 檢查是否為 Apple Silicon
$ arch
arm64
如果你的 macOS 版本低於 26,你需要升級。如果你的架構是 x86_64(Intel),你需要換一台 Apple Silicon Mac 才能用 apfel。
2. 啟用 Apple Intelligence
前往「系統設定 > Apple Intelligence 與 Siri」,啟用 Apple Intelligence。這會下載內建的模型。
你不需要使用 Siri,只需要啟用它來讓模型下載。下載時間視你的網路速度而定,通常幾分鐘到幾十分鐘不等。
3. 安裝 apfel
$ brew install Arthur-Ficial/tap/apfel
如果你沒有 Homebrew,你需要先安裝它:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
4. 測試
$ apfel "你好,世界"
你好!
如果是第一次使用,可能需要等待幾秒讓系統載入模型。
5. 探索功能
# 查看所有選項
$ apfel --help
# 啟動聊天模式
$ apfel --chat -s "You are a coding assistant"
# 啟動伺服器模式
$ apfel --serve
# 更新 apfel
$ apfel --update
開發與社群
apfel 是開源專案,使用 MIT 許可證,託管在 GitHub:
https://github.com/Arthur-Ficial/apfel
截至 2026 年 4 月 4 日,專案已經超過 1,500 顆 star,吸引了來自 Apple、Google、VMware、NVIDIA 和 Grafana 的工程師關注。
有趣的是,apfel 的共同維護者「Arthur Ficial」其實是一個 OpenClaw 實例,執行在 Anthropic 的 Claude Opus 上。這個專案本身就是用 Claude Code 和 Codex 開發的。
apfel 原本的目標是在 Apple Intelligence 上執行 OpenClaw(超級省 token 模式),但失敗了——因為 4K 的上下文視窗太小。但這個失敗讓作者發現,一個本地、快速、可腳本化、隨時可用、零設定、隱私優先的 LLM,其實非常強大、有趣且實用。
這個故事很有意思。apfel 的起源是「失敗的專案」,但這個失敗卻開啟了另一個可能性。這提醒我們,有時候最好的創意不是來自成功,而是來自失敗後的轉向。
社群反應
apfel 在 Hacker News 上引起了不少討論。有些開發者興奮地分享他們的使用案例:
- 用 apfel 自動化 git commit 訊息生成
- 用 apfel 快速翻譯文件成多種語言
- 用 apfel 為 shell scripts 生成說明文件
- 用 apfel 處理客戶服務的自動回覆
也有開發者提出疑慮:
- 4K 視窗太小,無法處理大型專案
- 模型能力有限,無法取代雲端 AI
- 只能在 macOS 26 上用,限制太大
這些反應都很合理。apfel 不是要解決所有問題,而是要解決特定問題。如果你需要長上下文或強大模型,apfel 不適合你。但如果你需要免費、本地、隱私優先、整合到工作流程的 AI,apfel 可能是你的最佳選擇。
未來展望
apfel 的出現讓我們看到一個新趨勢:AI 不是只有雲端。
Apple 從 iOS 18 開始推動 Apple Intelligence,把 AI 能力直接整合到裝置層級。這不僅是為了隱私和速度,更是為了降低使用者的使用門檻——不需要註冊帳號、不需要綁定信用卡、不需要懂 API,直接用。
apfel 把這個能力釋放出來,讓開發者可以用管道、HTTP、聊天各種方式接入。這意味著我們可以建立完全本地的 AI 工具鏈,把 AI 深度整合到日常工作流程,而不需要依賴任何雲端服務。
隨著硬體持續進步,本機 AI 的能力會越來越強。未來的 Apple Silicon 可能會有更大的 Neural Engine,可以跑更大的模型、更長的上下文視窗。到時候,本機 AI 可能真的可以取代大部分雲端 AI 的用途。
對台灣的開發社群來說,這個趨勢特別值得注意。台灣有許多中小企業和個人開發者,他們可能負擔不起昂貴的雲端 AI 訂閱,但需要 AI 來提升生產力。本機 AI 像是 apfel,提供了一個免費、高效、易用的選擇。
5 年後回頭看今天,我們會說什麼?是「當時太天真了,以為雲端 AI 就是全部」,還是「那時就該知道,本機 AI 才是未來」?這個問題現在沒有答案,但 apfel 讓我們開始想像那個可能性。
也許有一天,你的 AI 助手不是在雲端,而是在你的 Mac、你的手機、你的所有裝置裡。它們互相溝通、共享知識,但永遠不離開你的裝置。這是 apfel 讓我們看到的未來——一個完全本地、完全隱私、完全屬於你的 AI 未來。
結語
你的 Mac 裡,藏著一個免費的 AI。你不需要花錢訂閱,不需要綁定信用卡,不需要懂 API。只需要安裝 apfel,叫醒它。
這個 AI 不完美,但它足夠用。它可以幫你生成命令、翻譯文字、摘要文件、除錯程式。它完全本地、完全隱私、完全免費。
也許你已經付過錢買了這台 Mac,裡面就藏著一個免費的 AI——你只需要安裝 apfel,叫醒它。