「開發者社群裡流傳著一句話:如果你打不過它們,就加入它們。但 Apple 選擇了第三條路:等它們燒光錢,自己直接開始收場。」

沒有人記得 Apple 是「AI 失敗者」

2023 年,ChatGPT 掀起 AI 浪潮時,Apple 在這個領域的表現被形容為「失敗者」。沒有自研大模型、沒有雲端 GPU 集群、沒有公開的 AI API。與 OpenAI、Google、Anthropic 這些正面對打的玩家相比,Apple 幾乎缺席。

那時候的評論很一致:Apple 錯失了 AI 機會。它的 Siri 落後、搜索功能不智能、整體 AI 體驗遠遜於競爭對手。甚至有分析師說,Apple 可能因為 AI 落後而失去設備市場的競爭力。

兩年後的今天,局勢變得很有意思。

OpenAI 等公司正在巨額投入 GPU 硬體、資料中心和訓練成本。根據報導,OpenAI 與 Samsung 和 SK Hynix 簽署了意向書,每月採購多達 90 萬片 DRAM 晶圓,約佔全球產量的 40%。這種規模的投入意味著龐大的固定成本,只要營收預測稍有偏差,就可能被迫退場。有人預測,如果沒有某種形式的紓困,OpenAI 可能在未來 18-24 個月內破產。

Apple 沒有加入這場燒錢競賽。相反,它做了一件看起來很「傳統」的事:把 AI 模型塞進手機裡。

手機裡的 LLM,比你想的強

Apple 推出的本地模型「設計來在手機上執行」,在 MMLU Pro 測試中獲得了 85.2% 的分數,在 Arena 排行榜上與 Claude Sonnet 4.5 Thinking 平手。對於一個在設備本地運行的模型來說,這個成績相當驚人。

這是什麼概念?MMLU Pro 是一個評估大語言模型在各個領域表現的基準測試,包括數學、歷史、法律、醫學等多個學科。85.2% 的分數意味著這個本地模型在大多數日常任務上,已經能夠與頂級的雲端模型相抗衡。

更關鍵的是,它發布後的第一週就獲得了 200 萬次下載。這不是一個小數字。它說明開發者和使用者開始認真看待「本地 AI」這個選項。

為什麼本地模型突然變重要了?

雲端 AI 模型的成本問題正在浮現。

有分析發現,某個訂閱方案的用戶用 200 美元的訂閱,消費了價值高達 2 萬 7 千美元的運算資源。這種模式如果不改,訂閱制將難以持續。訂閱收入和實際使用成本之間的差距太大,無法長期維持。

這不是個案。許多開發者報告,他們的 API 使用成本在過去一年中快速成長。模型變大了、參數變多了、每次請求的 token 數量變多了。雖然模型的能力也提升了,但使用者願意支付的價格並沒有相應增加。

本地模型則避開了雲端傳輸和推理的成本。它不需要每個請求都調用 API,不需要為每次對話付費。對於許多日常使用場景——寫信、整理筆記、簡單的問答——本地模型已經足夠。

更重要的是,本地模型的成本是固定的:你只需要在訓練或微調時花一次錢,之後的每個請求都是「免費」的。這與雲端模型的「按使用量計費」模式完全不同。

實際場景:開發者如何受益

讓我們看一個具體的例子。一個台灣的開發者正在建立一個筆記應用,主要功能是幫使用者整理筆記、提取重點、生成摘要。

如果他選擇使用雲端 API,每個使用者每次整理筆記都需要調用 API。假設每個使用者每天整理 10 次筆記,每次成本是 0.002 美元,那麼 1000 個使用者每天的成本就是 20 美元,一年下來就是 7300 美元。這還不包括網路延遲、伺服器維護等其他成本。

如果他選擇使用本地模型,他只需要一次性微調一個小模型,之後所有使用者的請求都在設備本地完成。沒有 API 費用、沒有網路延遲、沒有伺服器負擔。唯一的成本是初始的模型訓練或微調,而這個成本是一次性的。

這就是為什麼越來越多開發者開始關注本地模型。它不是「雲端模型的替代品」,而是「適合不同場景的選項」。

Apple 的護城河不是 AI,是設備

Apple 從來不是第一個推出「新技術」的公司。它也從來不是最快追趕熱潮的那一個。但它擅長的是:等到技術成熟,然後把它整合到已有的產品生態系中。

這次 AI 浪潮也是一樣。當其他公司忙於建 GPU 集群時,Apple 在做一件事:把 AI 功能放進設備,讓它成為 iPhone、iPad、Mac 的自然延伸。

舉個例子:當你在寫信時,AI 可以自動幫你修正錯別字、建議句子結構,甚至幫你改寫段落。這些功能不需要連到雲端,它們在設備本地就能完成。你感覺不到「正在使用 AI」,你只感覺到「這個設備更聰明了」。

這個策略帶來了兩個關鍵優勢:

成本結構不同:Apple 沒有龐大的雲端訓練和推理成本。它的 AI 模型是在設備上運行,這意味著使用者購買設備時,已經為 AI 能力付費了。Apple 不需要持續投入巨額硬體來維護雲端服務。

分發管道不同:Apple 不需要跟使用者解釋「為什麼要付費」,因為使用者已經為設備付費。AI 功能是設備價值的一部分,而不是額外的訂閱費用。對於使用者來說,這是「免費升級」;對於 Apple 來說,這是「增加設備吸引力」的方式。

當「失敗者」變成唯一還站著的人

AI 浪潮的早期階段,大家都在比誰的模型更強、誰的參數更多、誰的應用場景更廣。這是一場比誰花錢更快的競賽。

OpenAI、Anthropic、Google,這些公司在 GPU 購買、資料中心建設、模型訓練上投入了數十億美元。它們的競爭焦點是「技術領先」——誰的模型分數更高、誰能解決更複雜的問題。

但現在開始進入第二階段:比誰能活下來。

技術領先很重要,但如果無法轉化為可持續的商業模式,再先進的技術也沒有意義。OpenAI 的訓練成本和運營開支持續攀升,訂閱收入和 API 收入能否支撐這些成本,是個問號。其他玩家也面臨類似的壓力。

Apple 在這場比賽中從來不是最快的,但可能是最穩的。它的 AI 策略不是「打造最好的模型」,而是「讓 AI 成為設備的一部分」。

這意味著它不需要在其他公司拼命燒錢的時候跟進,它只需要在自己的產品迭代中逐步加入 AI 功能。iPhone 每年更新、iPad 每年更新、Mac 每年更新——AI 功能自然地融入這個週期,不需要額外的營銷、不需要額外的推廣。

這就是為什麼人們說 Apple 有「意外的護城河」。它不是 AI 順域的先行者,甚至一度被視為「失敗者」。但當先行者們因為成本壓力而退場時,Apple 可能是唯一還站著、而且擁有數十億用戶設備的人。

隱私與本地化的優勢

除了成本,本地模型還有另一個關鍵優勢:隱私。

當你使用雲端 API 時,你的資料會被傳送到遠端伺服器處理。雖然大多數公司聲稱不會儲存或使用這些資料,但這仍然是一個風險。對於企業用戶、醫療記錄、個人日記等敏感資料,雲端處理可能不符合法規或公司政策。

本地模型則完全避開了這個問題。資料從未離開設備,處理在本地完成,沒有資料外洩的風險。這對台灣的企業和政府機構來說,是一個重要的考量因素。

此外,本地模型也更適合離線場景。當你在高鐵上、飛機上、或網路不穩定的環境中工作時,雲端 API 可能無法使用,但本地模型仍然可以正常運作。

台灣開發者和使用者能做什麼?

對於台灣的開發者來說,這個趨勢帶來了兩個啟示:

本地模型值得關注:不是所有應用都需要雲端 LLM。如果你的應用場景是本地化的、對隱私敏感的、或者需要離線運作的,本地模型可能是更好的選擇。

舉個例子:一個幫台灣學生準備考試的應用,它的主要功能是整理筆記、生成摘要、解釋難題。這些功能不需要調用 GPT-4 或 Claude,一個本地的小型模型就足夠了。而且,因為資料不會離開設備,家長和學生可以更放心地使用。

設備整合的重要性:AI 不再只是一個「新奇功能」,它正在成為設備操作系統的一部分。如果你的應用能與設備的本地 AI 能力整合,可能比依賴第三方 API 更有長期優勢。

這意味著你的應用可以離線運作、成本更低、回應更快。對於台灣的中小型新創公司來說,這是一個重要的優勢:你不需要與 Google 或 OpenAI 在 GPU 採購上競爭,你只需要做好產品和體驗。

對於一般使用者來說,這意味著:你不需要為了體驗 AI 而付費訂閱。手機、平板、電腦裡的本地模型,將逐漸能夠滿足大部分日常需求。AI 將變成類似「相機」或「GPS」一樣的設備內建功能——你每天都在用,但很少會思考「它是怎麼運作的」。

當熱潮退去,剩下的才是真實

AI 浪潮還沒結束,但已經開始從「狂熱期」進入「現實期」。

早期投入者正在面臨成本和營收的現實壓力。雖然它們的技術很先進,但商業模式還在摸索中。訂閱制、按量計費、企業版授權——沒有一個模式被證明是長期可持續的。

而那些沒有參與燒錢競賽的玩家,反而開始顯現優勢。它們不需要在 GPU 採購上跟進、不需要在訂閱價格上競爭、不需要在用戶增長上壓力。它們只需要做一件事:把 AI 功能自然地整合到現有的產品中。

Apple 可能是這個轉變的最佳範例。它被視為「AI 失敗者」,因為它沒有推出自己的 GPT、沒有建立自己的 GPU 集群、沒有參與那場「誰的模型更強」的競賽。

但它的策略是:不打它們玩的遊戲,只做自己的事。

等到其他玩家燒光錢、市場重新洗牌,Apple 的 AI 功能可能已經在數十億台設備上運作,成為使用者生活的一部分。開發者在寫應用時,會自然地考慮「如何整合設備的本地 AI 能力」;使用者在選擇設備時,會把「內建 AI 功能」列為考慮因素。

這不是「贏得比賽」,而是「不參加比賽,直接收場」。

而那才是最難被超越的護城河。