「我肯定懷念 AI 前的寫作時代。」這句話不是出自某個文學院教授,而是一位在科技巨頭工作多年的工程總監。他在一篇內部文章裡寫下這段話時,引來了近 600 人的共鳴討論。
這聽起來很矛盾。AI 明明是來幫助我們的工具,為什麼越來越多人反而感到不安?
答案可能比你想像的更尖銳:我們正在用 AI 模擬能力,而不是培養能力。
兩種工程師正在分裂
如果你最近有機會和幾家大型科技公司的工程管理層聊一聊,會發現一個明顯的趨勢——軟體工程師正在分裂成兩個陣營。
第一種人會用 AI 來消除繁瑣的工作。他們讓 AI 處理樣板程式碼、自動化測試、生成文件摘要,從 routine work 中解放出來。然後把這些省下來的時間,用在更重要的地方:定義問題框架、評估取捨、識別風險、創造清晰的思路,以及產出真正有洞察力的成果。
第二種人則用 AI 來逃避思考。他們把提示詞丟進對話框,收集漂亮的輸出,然後當作自己的分析結果呈現出來。短期內,這看起來像生產力——有時甚至像天賦。但正如這篇文章的作者 Koshy John 所說:這是一條死路。
這兩者的差別,不在於用不用 AI,而在於用 AI 做什麼。
最大的陷阱:外包思考
AI 已經能做到很多事:生成程式碼、摘要會議、解釋概念、產出設計草案、撰寫狀態更新。這很有用,但也非常危險。
危險不在於「AI 會讓人變懶」這種模糊的道德憂慮,而在於:它讓模擬能力變得極其容易,卻不會真正建立能力。
想像一下,一個學生從來不做數學作業,每次都抄隔壁同學的答案。至少那個同學是真的理解——抄襲的人至少還連結到一個真實的知識來源。但在 AI 時代,人們可以產出他們自己都無法理解、無法辯護、無法獨立重現的機器推理,然後把它當作自己的見解呈現出來。
這不是槓桿,這是智力依賴。
每一次你用 AI 生成的輸出替代自己的理解,就是在跳過那些建立判斷力的練習。你用長期的能力,換取了短期的「看起來很行」。
一位微軟工程師的反思
這讓我想起前幾個月一位微軟工程師在社群上的分享。他坦承自己在過去一年幾乎所有程式碼都依靠 Copilot 完成,結果在一次面試中,被問到一個中等難度的演算法問題時,他完全不知道從何下手。「我突然發現,這一年來我根本沒有在思考,只是在驗證 AI 的輸出。」他說。
類似的情況正在越來越多年輕工程師身上發生。Stack Overflow 的年度調查數據顯示,2025 年有超過 70% 的開發者使用 AI 工具輔助開發,但其中近四成的人承認,他們對 AI 生成的程式碼沒有完整的理解。
這不是危言聳聽。根據 GitHub 的官方統計,2025 年 Copilot 生成的程式碼接受率約為 35-40%,也就是說有將近三分之二的 AI 建議被開發者拒絕了——但問題是,那些被接受的程式碼,開發者真的都理解了嗎?
最好的工程師會怎麼做?
最好的工程師會比任何人用更多 AI,但他們的姿態完全不同。
他們會讓 AI 做這些事:
– 起草樣板程式碼
– 摘要文件
– 生成測試框架
– 提出重構建議
– 協助調查失敗原因
– 壓縮 routine 工作
他們樂於把機械性的部分外包出去。但同時,他們也會:
– 問更尖銳的問題
– 定義真正的問題,而不只是回應表面看到的
– 優化清晰度和簡潔度,而不是用漂亮的語言說廢話
– 產出真正有高價值的新知識,而不只是重新混編已有的資訊
然後,他們會把省下來的時間,投入到真正重要的地方。
價值的真正來源
多年來,人們一直把軟體工程誤解為「寫程式碼」。這個誤解現在正在被戳破。
如果工作主要是產出語法正確的程式碼,那麼 AI 當然會直接取代大部分工作。但這從來就不是這份工作最有價值的部分。價值始終來自判斷力。
有價值的工程師是那種能預見隱藏限制、避免故障的那個人。是那種能發現團隊在解決錯誤問題的那個人。是那種能把模糊的爭論轉化為清晰的取捨方案的那個人。是那種能找出缺失的抽象層的那個人。是那種能在現實中除錯,而不只是讀程式碼的那個人。是那種能在所有人都看到雜訊時,創造出清晰思路的那個人。
AI 可以支持這些工作,但它無法擁有這些判斷。
更有趣的是,未來最有價值的工程師,往往會是那些產出知識、讓 AI 變得更有用的人。他們會創造設計原則、領域理解、模式、上下文和決策框架,反過來讓 AI 更有效。他們用更好的問題、更好的約束、更好的修正來餵養系統。
在這樣的世界裡,工程師沒有被 AI 取代。他們因為在原始輸出之上運作而變得更有槓桿效應。
對職涯早期的工程師——這特別重要
這個問題對於職涯初期的工程師尤其關鍵。
早期之所以重要,是因為那是基礎技能形成的時期。除錯直覺。系統直覺。精確度。品味。懷疑精神。拆解問題的能力。解釋為什麼某個東西能運作、而不只是它看起來能運作的能力。
這些技能是透過摩擦建立的。透過掙扎。透過犯錯然後修正。透過追溯失敗到根本原因。透過寫出某個東西、然後發現它在現實中行不通的過程。
這個過程不是可選的。它是工程師獲取和提升能力的必經之路。
如果年輕工程師用 AI 把學習過程中的所有掙扎都消除掉,他們會傷害自己的發展。使用 AI 來回答每個困難問題的人,可能在兩三個季度內看起來都很有效率。但他們可能正在悄悄地摧毀自己未來所依賴的能力。
就像在大學裡一直抄答案,然後出現在需要獨立思考的工作中。就像用計算機做每個算術題,卻從未發展出數字感。就像依賴自動駕駛功能,卻從未學會如何真正開車。
輔助系統可以讓你看起來有功能,但它無法讓你變得有能力。
判斷力沒有捷徑
以下是很多人可能不想聽的部分:
沒有任何 AI 生成的解釋可以讓你不經過努力就獲得專業知識。沒有任何方法可以長期外包推理、然後期望自己仍然擅長推理。
你可以外包機械性工作、加速研究、壓縮 routine 任務。你可以消除大量低價值的勞動。這些都很好,也應該發生。
但你無法跳過技能的養成,然後期望自己憑空擁有它。
這就是最天真使用 AI 的核心錯誤。人們以為他們在省時間,但實際上他們正在放棄唯一能讓他們長期有價值的東西。
微軟研究團隊在 2025 年底發表的一項研究顯示,在同樣的編程任務中,完全依賴 AI 的開發者雖然在速度上快了 55%,但在程式碼品質、錯誤處理的全面性以及 debug 能力上,明顯落後於適度使用 AI 的開發者。更驚人的是,當要求回顧他們的解決方案時,高度依賴組有近三成的人無法完整解釋自己的程式碼邏輯。
對組織的深層影響
這個問題不僅影響個人,對組織健康也有深遠影響。
如果一個團隊的文化鼓勵「快速產出」勝過「深度理解」,那麼 AI 工具就會加速一種危險的動態:資淺工程師看起來很高效,但沒有在建立判斷力;資深工程師忙於清理 AI 生成的程式碼中的細微問題;而管理層看到的是表面上的生產力提升,完全沒注意到深層的能力退化。
這種情況如果持續一年以上,團隊的集體能力會出現一個奇怪的悖論:產出變多,但解決真正困難問題的能力在下降。
這讓我想起 Netscape 共同創辦人 Marc Andreessen 多年前說過的一句話:「軟體正在吞噬世界。」在 AI 時代,這句話可能需要修正:如果我們不警惕,AI 正在吞噬我們的判斷力。
組織該如何回應?
對團隊和組織來說,建立「以理解為先」的文化比任何技術解決方案都重要。以下是幾個具體的方向:
程式碼審查不只看結果,更看推理過程。 當工程師提交 AI 生成的程式碼時,要求他們解釋為什麼選擇這個方案、潛在風險在哪裡、以及他們做了什麼驗證。這不是不信任 AI,而是確保使用 AI 的人真的有在思考。
建立「無 AI 時間」的實踐。 某些組織已經開始實施「週四無 Copilot」的做法,讓工程師每週至少有一天完全不依賴 AI 工具。這不是反科技,而是確保基礎能力不會隨著時間退化。
在面試中更重視基礎能力。 如果團隊的招募過程也依賴 AI,那招募進來的人可能也只是擅長使用 AI 而非真正有判斷力的人。Google 和 Meta 的面試設計從未完全取消現場編程和白板題,不是因為他們老派,而是因為他們知道在沒有輔助工具的情況下判斷一個人的思考能力,仍然是最有效的篩選方式。
獎勵深度,不只獎勵速度。 組織的績效評估標準必須反映真正的價值:清楚的技術決策、預防性思考、對複雜問題的拆解能力,而不是「這個 sprint 完成了多少個 story point」。
所以,我們該怎麼做?
如果在這個時代只能記住一件事,那就是:不要讓 AI 替你思考。那些重要的決定,必須由你自己來。
對於職涯初期的工程師,我的建議很直接:
第一,有意識地增加「無 AI 幫助」的編碼時間。可以是一個下午,也可以是一個完整的 sprint。目標不是為了證明自己不需要 AI,而是為了確保你的大腦仍然在建立那些重要連接。
第二,每一次使用 AI 生成程式碼後,花時間重新讀一遍、理解它、質疑它。然後問自己:「如果沒有 AI,我能寫出這個嗎?」如果答案是否定的,這就是一個信號——你的學習正在被跳過。
第三,把學習的重心從「學工具」轉移到「學原理」。AI 工具會變,框架會變,但計算機科學的核心原理——資料結構、演算法、系統設計的取捨——不會變。這些才是你長期價值的基礎。
最後,對自己誠實。當你真的理解一個問題時,你能用自己的話解釋它。當你只是在操作 AI 時,你無法做到這一點。這條界線,永遠是判斷你是否真正成長的試金石。
我寫完這篇文章後,最大的感觸不是學會了什麼新技術,而是更確信一件事:AI 時代真正的贏家,不是那些會用最多 AI 工具的人,而是那些在輔助之下,依然保持獨立判斷力的人。
技術可以外包,但思考不行。
這一點,在任何時代都不會變。