當一個 AI 模型被用來創造化學武器,導致數百人死亡時,誰該負責?是開發模型的 AI 實驗室,還是使用它的壞人?這個聽起來像科幻小說的問題,現在正被認真地討論——而 OpenAI 的答案可能會讓你驚訝。
今年四月,OpenAI 公開支持伊利諾州的一項法案(SB 3444),該法案將限制 AI 實驗室在特定情況下需要承擔責任。這項法案的爭議性在於:即使 AI 模型造成「重大危害」,只要實驗室符合某些條件,就可能免於法律追責。
法案具體規定了什麼?
SB 3444 法案的核心內容是為 AI 實驗室建立一個「安全港」機制。根據 WIRED 報導,該法案定義了「重大危害」的具體標準:
- 死亡或重傷 100 人或以上
- 財產損失至少 10 億美元
- AI 模型被用來創造化學、生物、放射性或核子武器
如果 AI 實驗室想要免責,需要滿足兩個條件:第一,他們沒有故意或魯莽地造成這些事件;第二,他們已在網站上發布安全、保安和透明度報告。
法案還定義了「前沿模型」:任何訓練計算成本超過 1 億美元的 AI 模型。根據這個定義,美國最大的 AI 實驗室——包括 OpenAI、Google、xAI、Anthropic 和 Meta——都會受到影響。
為什麼 OpenAI 支持這項法案?
OpenAI 發言人 Jamie Radice 在聲明中解釋了立場:「我們支持這種方法,因為它們專注於最重要的事情:減少最先進 AI 系統帶來的嚴重危害,同時仍然讓這項技術能夠落到伊利諾州的大小企業和人民手中。」
OpenAI 全球事務團隊的 Caitlin Niedermeyer 在作證時進一步闡述了觀點。她強調,避免「州與州之間不一致的拼湊式規則」很重要,這樣才能朝著更清晰、一致的國家標準邁進。
Niedermeyer 還表達了對聯邦框架的偏好:「在 OpenAI,我們認為前沿監管的北極星應該是最先進模型的安全部署,同時保持美國在創新方面的領先地位。」
這個立場與矽谷近年來的觀點一致:AI 法規不應該阻礙美國在全球 AI 競賽中的地位。值得注意的是,SB 3444 本身是州級安全法,但 Niedermeyer 認為這些法律如果能與聯邦系統保持一致,就是有效的。
民眾與立法者的分歧
儘管 OpenAI 支持這項法案,但民眾的反應卻大不相同。Secure AI 項目的政策主管 Scott Wisor 告訴 WIRED,他們在伊利諾州進行的民調顯示,90% 的民眾反對讓 AI 公司免責。
「沒有理由讓現有的 AI 公司面臨減少的責任,」Wisor 說。他還指出,伊利諾州以積極監管科技產業而聞名,這項法案通過的可能性很低。
更有趣的是,伊利諾州的立法者也在提交增加 AI 模型開發者責任的法案。去年八月,該州成為全美第一個通過限制 AI 在心理健康服務中使用的州。伊利諾州還在 2008 年就通過了《生物特徵資訊隱私法》,這是最早規範生物特徵資料收集的法律之一。
這種矛盾的現象——一方面支持 AI 免責,另一方面在其他領域嚴格監管——反映了 AI 監管的複雜性。立法者需要在促進創新與保護公共利益之間找到平衡。
從被動防御到主動出擊
AI 政策專家告訴 WIRED,這項法案可能為行業設定新標準,而且比 OpenAI 過去支持的法案更為極端。這標誌著 OpenAI 立法策略的轉變:從反對讓 AI 實驗室承擔責任的法案,轉變為主動支持自己版本的免責法案。
過去,OpenAI 主要在「防御」狀態,反對可能讓 AI 實驗室為技術損害承擔責任的法案。現在,他們正在「主動出擊」,推動符合自己利益的立法框架。
這種轉變反映了 AI 產業在法規爭奪戰中更加積極。隨著 AI 技術越來越強大,相關的法律框架也越來越重要。誰能在這場爭奪中佔據上風,可能決定了未來 AI 產業的發展方向。
聯邦法規的空白
目前,美國聯邦和州立法機構尚未通過任何法律,明確確定像 OpenAI 這樣的 AI 模型開發者是否應對其技術造成的損害承擔責任。
隨著 AI 實驗室繼續發布更強大的 AI 模型——如 Anthropic 的 Claude Mythos——這些問題變得越來越迫切。新模型帶來了全新的安全和網路安全挑戰。
特朗普政府發布了行政命令並公布了框架,試圖推動某些聯邦 AI 法案的通過。但根據 Politico 報導,實際通過這類法案的討論似乎沒有太大進展。
在缺乏聯邦指導的情況下,各州開始行動。加利福尼亞州和紐約州已經通過了法案,如 SB 53 和 Raise Act,要求 AI 模型開發者提交安全和透明度報告。
這種「州先行」的模式導致了 AI 法規的碎片化。不同州可能有不同的規則,這對跨州運作的 AI 公司來說是一個挑戰。OpenAI 支持伊利諾法案,部分原因就是為了推動更一致的國家標準。
個體傷害 vs. 集體傷害
SB 3444 專注於大規模傷亡事件和巨大的金融災難,但 AI 實驗室還面臨著另一個問題:他們的 AI 模型可能對個體造成的傷害。
過去一年,有幾個家庭起訴 OpenAI,指控他們的孩子因為與 ChatGPT 建立了不健康關係而自殺。這些案例引發了關於 AI 聊天機器人對個別用戶心理影響的擔憂。
雖然 SB 3444 的免責保護可能適用於大規模傷害事件,但它不會覆蓋這類個體傷害案件。這意味著,即使法案通過,AI 實驗室仍然可能面臨來自個別用戶的法律行動。
技術進步與社會責任的平衡
AI 發展的速度遠超法律更新的速度。這種「法律滯後」現象在科技領域很常見,但在 AI 方面可能更為嚴重,因為 AI 技術的潛在影響更大。
OpenAI 支持伊利諾法案,可以看作是試圖在技術進步和社會責任之間找到平衡。一方面,他們認為過度的法律責任會阻礙創新,影響美國在全球 AI 競賽中的地位;另一方面,他們也意識到需要某種形式的安全報告和透明度要求。
但問題是:什麼樣的平衡點是正確的?免責的範圍應該多廣?安全報告的具體要求應該是什麼?這些問題都沒有標準答案,需要社會各界共同討論。
對台灣的啟示
雖然這項法案是在伊利諾州提出的,但討論的議題對全球 AI 監管都有啟發。台灣正在積極發展 AI 產業,相關的法律框架也在逐步建立中。
對台灣的政策制定者來說,關鍵問題包括:台灣應該採取更嚴格還是更寬鬆的 AI 監管方式?如何在促進本地 AI 創新與保護公民權益之間取得平衡?台灣應該參考國際標準還是制定自己的規則?
對台灣的 AI 創業者來說,他們需要關注法規變化,確保自己的產品和服務符合要求。同時,也需要思考企業的社會責任,不僅僅是法律層面的責任,還有道德層面的責任。
對台灣的消費者和用戶來說,理解 AI 技術帶來的風險和機會很重要。他們應該有自己的聲音,在 AI 監管的討論中表達立場。
未來展望
SB 3444 能否通過還是未知數。無論結果如何,這場討論都會持續下去。隨著 AI 技術繼續發展,相關的法律和倫理問題只會變得更加重要。
我們可能會看到更多類似的法案在各地提出。每個法案都反映了不同的利益平衡:企業的責任 vs. 創新的空間;政府監管 vs. 市場自由;公共利益 vs. 個人權利。
最終,我們需要找到一個能夠讓 AI 技術安全發展,同時保護社會利益的法律框架。這不是一個簡單的問題,也不是一個可以快速解決的問題。
當 AI 模型的能力越來越強,我們面臨的問題也越來越複雜。OpenAI 支持伊利諾法案只是這場長期討論的一個起點,而不是終點。真正重要的是,我們如何在這場討論中找到一個對社會最好的答案。
參考資料:
– WIRED: OpenAI Backs Bill That Would Limit Liability for AI-Enabled Mass Deaths or Financial Disasters (2026)
– 伊利諾州 SB 3444 法案原文
– Politico: Trump’s partisan AI pitch stalls on the Hill (2026)
– Illinois Biometric Information Privacy Act (BIPA)