凌晨 3:45,一顆 Molotov cocktail(汽油彈)被扔向 Sam Altman 的家門。所幸炸彈撞到了房子彈開,沒有造成任何傷害。這不是電影場景,也不是小說情節,而是發生在 2026 年 4 月的真實事件。

幾天後,Sam Altman 在他的個人部落格上發表了一篇長文。他做了一件出乎意料的事:他分享了一張家人的照片。「這是我家人的照片,」他寫道,「我愛他們勝過一切。」

他很少公開家庭照片,但這一次他選擇了分享。原因很簡單:他希望這張照片能阻止下一個人在夜間向他的家扔汽油彈,不管他們對他本人有什麼看法。

這篇文章,不只是關於一個 CEO 和他的家人,更是關於 AI 辯論如何走到這個危險的地步。

言語的力量,被低估了

Sam Altman 在文章中承認:「現我在半夜醒來,很憤怒,思考著我低估了言語和敘事的力量。」

這句話值得我們深思。

幾天前,一篇煽動性的文章在媒體上發布,對他進行了強烈攻擊。有人告訴他,這篇文章發布的時機正好是人們對 AI 感到巨大焦慮的時刻,這讓他處境更加危險。當時他沒有當回事,將其拒之門外。直到凌晨的爆炸聲響起,他才意識到言語的後果是這樣真實。

這讓我們想到一個問題:當我們在網路上、在社群媒體上對 AI 發表強烈的言論時,我們是否真的意識到這些言論可能帶來的後果?

Sam Altman 的信念:AI 民主化

在這篇回應中,Sam Altman 明確表達了他的核心信念:

個人反思:一個有缺陷的人在異常複雜的中心

Sam Altman 沒有試圖扮演完美的 CEO 形象。他坦誠地反思了自己的錯誤:

「我是一個有缺陷的人,在異常複雜的情況中心,試著每年變好一點,總是為了使命而工作,」他寫道。

他意識到 OpenAI 現在已經是一個主要平台,不再是一個奮鬥的初創公司,需要以更可預測的方式運作。但他同時也為公司實現了使命感到驕傲——儘管在開始時看來不太可能。「許多公司說他們要改變世界,我們真的做到了。」

產業的「莎士比亞式戲劇」

Sam Altman 對 AI 產業過去幾年的戲劇性衝突有一個深刻的觀察:

「一旦你看見 AGI,你就無法再看而不見。」

他描述這有一種「魔戒」式的動態,會讓人做瘋狂的事情。他不是指 AGI 本身是那枚戒指,而是「成為控制 AGI 的那個人」這種全體論哲學。

這是一個非常有力的觀察。當一個技術承諾如此巨大——改變人類社會、重新定義未來的形態——人們自然會想要控制它。但正是這種想要控制的渴望,可能導致瘋狂的行為。

他提出了解決方案:「將技術廣泛地分享給人們,沒有人擁有那枚戒指。」兩個明顯的方式是:個人賦權和確保民主系統保持控制。

「民主過程必須比公司更強大,」他強調。法律和規範會改變,但我們必須在民主過程中工作,即使它會比我們希望的更混亂、更緩慢。「我們想成為聲音和利益相關者,而不是擁有所有權力。」

這對我們意味著什麼?

這次事件不是孤立的。它是 AI 辯論極端化的一個症狀。

當我們在網路上討論 AI 的時候,我們經常將其視為一個抽象的技術話題。我們討論 GPT-4 的能力、討論 AGI 的時間表、討論政策監管。這些都是重要的討論。但同時,我們需要記住:AI 不是抽象的,它有真實的人、真實的家庭、真實的生活在背後。

當我們使用極端的言語、煽動性的標題、人身攻擊的時候,我們應該問自己:這會導致什麼?這會助長什麼?

Sam Altman 在文章中說:「雖然我們進行那場辯論,我們應該降級言辭和策略,試著在更少的家裡有更少的爆炸,比喻上和字面上。」

這是一個合理的請求。

台灣讀者可以思考的事

對台灣的開發者、創業者和科技社群來說,這個事件帶來了幾個值得思考的角度:

1. 對科技熱情的健康態度

台灣對 AI 的熱情很高,這是好事。許多人投入時間學習、實驗、創業。但同時,我們應該避免將 AI 奉為救世主,也不應該將某些科技領袖視為反派或英雄。技術就是技術,它有潛力,也有風險。

保持健康、平衡的視角,有助於我們更理性地討論 AI。

2. 關注台灣的 AI 政策和發展

Sam Altman 強調「民主過程必須比公司更強大」。這對台灣來說特別有意義。

台灣有完整的民主制度,有活躍的公民社會。我們可以參與 AI 政策的討論,監督科技公司的行為,確保 AI 的發展符合公共利益。

具體來說,我們可以:
– 關注國科會、經濟部等部門的 AI 政策
– 參與公聽會、公開諮詢
– 在社群中分享對 AI 治理的觀點

3. 企業在 AI 時代的責任

對台灣的企業來說,Sam Altman 的反思帶來了一些啟示:

4. 個人的角色

作為個人,我們能做什麼?

具體行動步驟

對台灣讀者來說,這篇文章可以引導一些具體的行動:

如果你是一位工程師或開發者

  1. 保持開放的心態:不要因為對某家公司或某個人的好惡,而拒絕學習其技術。技術本身是中立的。

  2. 參與開源社群:將你的知識貢獻回開源社群,幫助更多人掌握 AI 技能。

  3. 分享你的一手經驗:當你使用某個 AI 工具遇到問題或獲得收穫時,寫文章分享,不要只轉貼新聞標題。

如果你是一位企業決策者

  1. 審慎評估 AI 採用:不要因為炒作而盲目採用 AI,也不要因為恐懼而拒絕。根據實際需求和風險評估來決定。

  2. 制定內部 AI 治理政策:確保 AI 的使用符合法律法規和企業倫理標準。

  3. 員工教育:培訓員工正確使用 AI,避免依賴或誤用。

如果你是一位政策制定者或倡議者

  1. 平衡創新與風險:在制定 AI 政策時,要平衡鼓勵創新和管理風險。

  2. 多角諮詢:不只在科技圈聽取意見,也要聽取法律、倫理、社會學等專家的觀點。

  3. 國際合作:AI 是全球議題,台灣可以與其他國家分享經驗,參與全球討論。

如果你是一般讀者

  1. 不要被煽動:當看到標題黨、極端觀點時,先停一下,問自己:這是事實還是情緒煽動?

  2. 尋找多元觀點:不要只聽一方的說法,嘗試接觸不同的觀點。

  3. 理性消費新聞:對 AI 相關新聞保持批判性思維,不要輕易被引導到極端立場。

結尾觀察

Sam Altman 的這篇文章,本質上是一個 CEO 在凌晨 3:45 的炸彈聲後的脆弱時刻。他選擇了分享一張家人的照片,選擇了反思自己的錯誤,選擇了呼籲降級言辭。

這不是一個完美的回應——他仍然有許多爭議需要面對,OpenAI 也面臨許多挑戰。但至少,這是一個真實的人的回應,不是一個企業公關聲明。

AI 辯論不應該導致炸彈、人身攻擊和極化。我們可以不同意 Sam Altman 的觀點,我們可以批評 OpenAI 的決策,我們可以對 AI 未來感到恐懼——但所有這些,都應該以尊重、理性和事實為基礎。

畢竟,我們不是在對抗一個敵人,我們是在共同思考如何讓一項強大技術造福人類。當這項技術的未來還在成形時,我們的言論和行為會決定它走向哪個方向。

那個凌晨 3:45 的炸彈,是一個警鐘。它提醒我們:言語有力量,後果很真實。

希望下一個夜裡,沒有人需要在自家門外聽到爆炸聲。