凌晨 3:45,一顆 Molotov cocktail(汽油彈)被扔向 Sam Altman 的家門。所幸炸彈撞到了房子彈開,沒有造成任何傷害。這不是電影場景,也不是小說情節,而是發生在 2026 年 4 月的真實事件。
幾天後,Sam Altman 在他的個人部落格上發表了一篇長文。他做了一件出乎意料的事:他分享了一張家人的照片。「這是我家人的照片,」他寫道,「我愛他們勝過一切。」
他很少公開家庭照片,但這一次他選擇了分享。原因很簡單:他希望這張照片能阻止下一個人在夜間向他的家扔汽油彈,不管他們對他本人有什麼看法。
這篇文章,不只是關於一個 CEO 和他的家人,更是關於 AI 辯論如何走到這個危險的地步。
言語的力量,被低估了
Sam Altman 在文章中承認:「現我在半夜醒來,很憤怒,思考著我低估了言語和敘事的力量。」
這句話值得我們深思。
幾天前,一篇煽動性的文章在媒體上發布,對他進行了強烈攻擊。有人告訴他,這篇文章發布的時機正好是人們對 AI 感到巨大焦慮的時刻,這讓他處境更加危險。當時他沒有當回事,將其拒之門外。直到凌晨的爆炸聲響起,他才意識到言語的後果是這樣真實。
這讓我們想到一個問題:當我們在網路上、在社群媒體上對 AI 發表強烈的言論時,我們是否真的意識到這些言論可能帶來的後果?
Sam Altman 的信念:AI 民主化
在這篇回應中,Sam Altman 明確表達了他的核心信念:
-
AI 是擴展人類能力的工具:他相信 AI 將成為人類見過的最強大工具,能擴展人類的能力和潛力。對這個工具的需求將幾乎是無上限的,人們將用它做令人驚嘆的事情。
-
世界需要大量的 AI:我們必須找出如何實現這一點的方法。
-
恐懼是合理的:但事情不會一帆風順。他承認對 AI 的恐懼和焦慮是合理的——我們正在見證社會在很長時間以來,或許是歷史上最大的變化。
-
安全不只是對齊模型:讓 AI 變得安全,不只是要對齊一個模型,我們還需要整個社會的回應來應對新的威脅。這包括制定新的政策,幫助我們度過困難的經濟轉型,邁向更好的未來。
-
AI 必須民主化:權力不能過於集中。對未來的控制權屬於所有人民和他們的機構。AI 需要賦權給個人,我們需要共同決定我們的未來和新規則。他不認為少數 AI 實驗室應該對未來形態做出最重要的決定。
-
適應性很關鍵:我們都在快速學習新事物;有些信念會是對的,有些會是錯的,隨著技術的發展和社會的演變,我們有時需要快速改變想法。還沒有人理解超級智能的影響,但這些影響將是巨大的。
個人反思:一個有缺陷的人在異常複雜的中心
Sam Altman 沒有試圖扮演完美的 CEO 形象。他坦誠地反思了自己的錯誤:
- 他對自己在 OpenAI 第十年的工作感到驕傲,但也承認犯了很多錯誤。
- 他正在思考即將與 Elon Musk 的訴訟,回憶他如何在「不願意同意他想要對 OpenAI 的單方面控制」這點上堅持立場。他為這一點感到驕傲。
- 他不對「逃避衝突」感到驕傲,這給他自己和 OpenAI 帶來了巨大的痛苦。他也不對在與前董事會的衝突中處理得不好感到驕傲,這給公司造成了巨大的混亂。
「我是一個有缺陷的人,在異常複雜的情況中心,試著每年變好一點,總是為了使命而工作,」他寫道。
他意識到 OpenAI 現在已經是一個主要平台,不再是一個奮鬥的初創公司,需要以更可預測的方式運作。但他同時也為公司實現了使命感到驕傲——儘管在開始時看來不太可能。「許多公司說他們要改變世界,我們真的做到了。」
產業的「莎士比亞式戲劇」
Sam Altman 對 AI 產業過去幾年的戲劇性衝突有一個深刻的觀察:
「一旦你看見 AGI,你就無法再看而不見。」
他描述這有一種「魔戒」式的動態,會讓人做瘋狂的事情。他不是指 AGI 本身是那枚戒指,而是「成為控制 AGI 的那個人」這種全體論哲學。
這是一個非常有力的觀察。當一個技術承諾如此巨大——改變人類社會、重新定義未來的形態——人們自然會想要控制它。但正是這種想要控制的渴望,可能導致瘋狂的行為。
他提出了解決方案:「將技術廣泛地分享給人們,沒有人擁有那枚戒指。」兩個明顯的方式是:個人賦權和確保民主系統保持控制。
「民主過程必須比公司更強大,」他強調。法律和規範會改變,但我們必須在民主過程中工作,即使它會比我們希望的更混亂、更緩慢。「我們想成為聲音和利益相關者,而不是擁有所有權力。」
這對我們意味著什麼?
這次事件不是孤立的。它是 AI 辯論極端化的一個症狀。
當我們在網路上討論 AI 的時候,我們經常將其視為一個抽象的技術話題。我們討論 GPT-4 的能力、討論 AGI 的時間表、討論政策監管。這些都是重要的討論。但同時,我們需要記住:AI 不是抽象的,它有真實的人、真實的家庭、真實的生活在背後。
當我們使用極端的言語、煽動性的標題、人身攻擊的時候,我們應該問自己:這會導致什麼?這會助長什麼?
Sam Altman 在文章中說:「雖然我們進行那場辯論,我們應該降級言辭和策略,試著在更少的家裡有更少的爆炸,比喻上和字面上。」
這是一個合理的請求。
台灣讀者可以思考的事
對台灣的開發者、創業者和科技社群來說,這個事件帶來了幾個值得思考的角度:
1. 對科技熱情的健康態度
台灣對 AI 的熱情很高,這是好事。許多人投入時間學習、實驗、創業。但同時,我們應該避免將 AI 奉為救世主,也不應該將某些科技領袖視為反派或英雄。技術就是技術,它有潛力,也有風險。
保持健康、平衡的視角,有助於我們更理性地討論 AI。
2. 關注台灣的 AI 政策和發展
Sam Altman 強調「民主過程必須比公司更強大」。這對台灣來說特別有意義。
台灣有完整的民主制度,有活躍的公民社會。我們可以參與 AI 政策的討論,監督科技公司的行為,確保 AI 的發展符合公共利益。
具體來說,我們可以:
– 關注國科會、經濟部等部門的 AI 政策
– 參與公聽會、公開諮詢
– 在社群中分享對 AI 治理的觀點
3. 企業在 AI 時代的責任
對台灣的企業來說,Sam Altman 的反思帶來了一些啟示:
-
透明度很重要:OpenAI 在成長過程中犯了很多錯誤,包括缺乏透明度。台灣企業在採用或開發 AI 時,應該更透明地溝通其目標和做法。
-
避免權力過度集中:Sam Altman 說「權力不能過於集中」。這對企業來說意味著,不要試圖獨占所有 AI 能力,要考慮與生態系合作。
-
負責任的溝通:避免煽動性的言論、誇大的宣傳。誠實溝通 AI 的能力和限制。
4. 個人的角色
作為個人,我們能做什麼?
-
理性討論:在社群媒體、論壇討論 AI 時,保持理性,避免人身攻擊和極端言論。
-
事實核查:分享 AI 相關資訊前,先確認來源和事實基礎。
-
關注真實影響:不只關注「AGI 何時到來」這樣的抽象問題,也要關注 AI 對具體人群的影響,例如就業、隱私、安全等。
-
參與政策討論:當有 AI 相關的政策諮詢時,參與表達意見。
具體行動步驟
對台灣讀者來說,這篇文章可以引導一些具體的行動:
如果你是一位工程師或開發者
-
保持開放的心態:不要因為對某家公司或某個人的好惡,而拒絕學習其技術。技術本身是中立的。
-
參與開源社群:將你的知識貢獻回開源社群,幫助更多人掌握 AI 技能。
-
分享你的一手經驗:當你使用某個 AI 工具遇到問題或獲得收穫時,寫文章分享,不要只轉貼新聞標題。
如果你是一位企業決策者
-
審慎評估 AI 採用:不要因為炒作而盲目採用 AI,也不要因為恐懼而拒絕。根據實際需求和風險評估來決定。
-
制定內部 AI 治理政策:確保 AI 的使用符合法律法規和企業倫理標準。
-
員工教育:培訓員工正確使用 AI,避免依賴或誤用。
如果你是一位政策制定者或倡議者
-
平衡創新與風險:在制定 AI 政策時,要平衡鼓勵創新和管理風險。
-
多角諮詢:不只在科技圈聽取意見,也要聽取法律、倫理、社會學等專家的觀點。
-
國際合作:AI 是全球議題,台灣可以與其他國家分享經驗,參與全球討論。
如果你是一般讀者
-
不要被煽動:當看到標題黨、極端觀點時,先停一下,問自己:這是事實還是情緒煽動?
-
尋找多元觀點:不要只聽一方的說法,嘗試接觸不同的觀點。
-
理性消費新聞:對 AI 相關新聞保持批判性思維,不要輕易被引導到極端立場。
結尾觀察
Sam Altman 的這篇文章,本質上是一個 CEO 在凌晨 3:45 的炸彈聲後的脆弱時刻。他選擇了分享一張家人的照片,選擇了反思自己的錯誤,選擇了呼籲降級言辭。
這不是一個完美的回應——他仍然有許多爭議需要面對,OpenAI 也面臨許多挑戰。但至少,這是一個真實的人的回應,不是一個企業公關聲明。
AI 辯論不應該導致炸彈、人身攻擊和極化。我們可以不同意 Sam Altman 的觀點,我們可以批評 OpenAI 的決策,我們可以對 AI 未來感到恐懼——但所有這些,都應該以尊重、理性和事實為基礎。
畢竟,我們不是在對抗一個敵人,我們是在共同思考如何讓一項強大技術造福人類。當這項技術的未來還在成形時,我們的言論和行為會決定它走向哪個方向。
那個凌晨 3:45 的炸彈,是一個警鐘。它提醒我們:言語有力量,後果很真實。
希望下一個夜裡,沒有人需要在自家門外聽到爆炸聲。