「AI 將會徹底改變世界。」這句話你聽過多少次?
但如果我告訴你,對同一件事,專家和大眾的看法可能天差地別,你會怎麼想?
根據史丹福大學最新的 AI Index 報告,這種差距不僅存在,而且正在擴大。專家看到的是醫療突破和經濟成長,大眾感受到的是工作流失和隱私威脅。
問題是:誰才是對的?或者更根本地說,為什麼差異這麼大?
10% vs 56%:兩個世界的對話
讓我們從一個數字開始。
根據 Pew Research 上個月的調查,只有 10% 的美國人表示,他們對 AI 在日常生活中越來越廣泛的應用,是「興奮多於擔憂」的。
換句話說,90% 的人至少有某種程度的焦慮。
但當你問 AI 專家同樣的問題,答案完全不同:56% 的專家認為 AI 將對美國產生正面影響。
為什麼差異這麼大?答案藏在具體議題的細節裡。
醫療:84% 專家 vs 44% 大眾
史丹佛報告中提到,84% 的專家認為,AI 在未來 20 年將對醫療保健產生「大致正面」的影響。
但只有 44% 的美國大眾同意這個觀點。
這不是意外。專家看到的,是 AI 在醫學影像分析、藥物發現和個性化治療上的潛力。
以醫學影像為例,Google Health 的 AI 系統在乳癌篩檢的測試中,表現比放射科醫師更準確:假陽性(誤判有癌症)減少 9.4%,假陰性(漏診癌症)減少 2.7%。這意味著更少的女性需要經歷不必要的切片檢查,更少的癌症被錯過。
在藥物發現方面,DeepMind 的 AlphaFold 已經預測了超過 2 億種蛋白質結構,涵蓋地球上已知幾乎所有物種的蛋白質。以前需要數個月甚至數年才能解析的結構,現在可能只需要幾分鐘。這對新藥開發來說,是一個革命性的突破。
在個性化治療方面,AI 可以分析病人的基因組、病史、生活習慣等數據,預測不同治療方案的效應和副作用。一個對多數病人有效的藥物,對某個特定病人可能無效甚至有害。AI 可以幫助醫生找到對「你」最有效的方案。
這些都是「看不見」的進步。除非你或親人因為 AI 的介入而獲得更好的治療,否則你很難感受到它的存在。
另一方面,大眾看到的,是醫療數據的隱私風險、演算法的偏見、醫療決策的「黑箱」難以理解。
2019 年,一個名為 Health Navi 的醫療數據公司發生大規模資料外洩,數百萬病患的敏感資料被公開。這類事件加深了人們對「把健康資料交給 AI」的恐懼。
演算法偏見的問題也很真實。如果一個 AI 系統主要用歐洲裔的數據訓練,它對亞洲裔、非洲裔病患的預測可能不準確。醫療演算法已經被發現在某些情況下對非白人病人存在系統性差別待遇。
當一個 AI 系統判斷你的治療方案,但無法清楚解釋為什麼,你不會感到安詳。醫療決策關乎生命健康,人類需要的不只是一個結果,還有理解和信任。
工作:73% 專家 vs 23% 大眾
差距最大的,是在工作這個議題上。
73% 的專家對 AI 對工作方式的影響持正面態度。
但只有 23% 的公眾這麼認為。
這不難理解。對專家來說,AI 是「工具」。它可以自動化重複性任務,可以協助分析和決策,可以讓人類專注在更有創造性的工作上。
他們想像的是:一個工程師不再需要花時間撰寫 boilerplate 程式碼,一個設計師可以快速生成多個草稿方案,一個行銷人員可以自動分析大量顧客反饋。
以寫程式為例,GitHub Copilot 已經被數百萬開發者使用。它可以根據註釋或部分程式碼,自動完成剩餘的部分。在對開發者的調查中,大約 70% 表示 Copilot 提升了他們的生產力,大約 55% 表示它讓他們專注在更複雜的問題,而不是重複性的編碼工作。
在設計領域,Midjourney、DALL-E 等工具可以在幾秒鐘內生成多個設計概念。設計師不再是從零開始,而是從一堆初步方案中選擇和調整。這不是取代,而是加速。
在內容創作上,AI 可以協助構思標題、撰寫草稿、編輯文案。一個獨立內容創作者,原本可能需要花兩天才能完成一篇深度文章,現在可能縮短到半天。
但對普通上班族來說,AI 是「威脅」。它不是一個讓你工作更順暢的工具,而是一個可能取代你職位的競爭者。
當新聞報導「AI 可以在幾秒鐘內完成一個平面設計師需要一整天的工作」,設計師不會想「太好了,我可以更快完成工作」,他會想「我的工作不保了」。
這不是缺乏理解。這是一種合理的生存焦慮。
更複雜的是,即使 AI 真的只是工具,它也可能改變工作的「價值結構」。如果以前需要一週才能完成的任務,現在 AI 可以在一天內完成 80% 的部分,那麼剩下 20% 的「人類工作」會被如何計價?老闆會願意付同樣的薪水嗎?
這不是假設。在客服領域,已經有些公司用 AI 聊天機器人處理了大部分查詢,只把複雜案例轉給人類客服。這些公司的客服人員數量減少了,雖然留用的人員可能處理更有趣的案例,但整體就業機會的減少是事實。
對於一個在產業中工作了十年的專業人士,這種轉型不是「學會新工具」這麼簡單。它意味著,你多年積累的技能和經驗,可能突然變得不那麼重要。這種心理衝擊,遠比技術學習困難。
經濟:69% 的專家說「正面」
關於 AI 對經濟的影響,69% 的專家認為是正面的。
這個比例雖然比醫療和工作的議題低,但仍然是一個多數。專家看到的,是生產力的提升、新商業模式的誕生、創業門檻的降低。
他們看到一個獨立開發者,憑藉 AI 工具就能創造出以前需要一個小團隊才能做出的產品。以 Jasper 為例,這家 AI 行銷文案工具公司在兩年內從幾人的團隊成長到數百人,營收達到數億美元。這在沒有 AI 的時代,是很難達到的速度。
他們看到一個中小企業,可以用 AI 自動化客服、行銷和部分後台作業,擴大營運規模。一個 10 人的電商公司,可能用 AI 聊天機器人處理 80% 的客戶查詢,用 AI 分析顧客行為推薦商品,用 AI 自動生成產品描述。這些公司以前可能需要 30-50 人才能做到同樣的營運水準。
在製造業,AI 驅動的預測性維護可以大幅減少機器停機時間。一家工廠可以根據感測器數據,提前知道哪台機器即將故障,在問題發生前就進行維護。這不是提升效率 10% 或 20%,而是可能減少數十萬美元的停工損失。
在金融領域,AI 可以更快地偵測詐欺交易,更準確地評估信用風險,更即時地調整投資組合。這些改善不是微小的,而是可以改變營運模式和競爭力的關鍵因素。
但大眾看到的,是財富分配不均的風險。如果 AI 生產的效益主要流向大型科技公司,那麼一般勞工和中小企業的處境可能不會改善,反而可能惡化。
根據國際貨幣基金組織(IMF)的估計,AI 可能導致約 40% 的全球工作受到影響,而發達經濟體的風險更高。雖然不是所有受影響的工作都會消失,許多會被轉型,但轉型需要時間和資源。
更重要的是,AI 的開發成本非常高昂。訓練一個先進的大型語言模型,可能需要數億美元的計算資源。這意味著,只有最大的科技公司才有資源參與 AI 的前沿開發。中小企業可能只能成為這些巨頭的「使用者」或「客戶」,而不是創新者。
如果 AI 的經濟效益主要集中在上層(科技巨頭和它們的投資者),而衝擊主要落在中下層(被取代的工作者),那麼經濟不平等可能惡化。
這不是杞人憂天。過去數位轉型的經驗告訴我們,技術進步帶來的成長,往往不是平均分配的。1990 年代和 2000 年代的數位革命,創造了巨大的財富,但美國中產階級的實質薪資成長卻非常有限。許多經濟學家擔心,AI 可能重複,甚至放大這個模式。
認知鴻溝從哪裡來?
為什麼差異這麼大?史丹佛報告沒有直接回答這個問題,但我們可以從幾個角度來理解。
1. 資訊來源的不同
專家接觸的是第一手資料:研究論文、實驗結果、實際部署的案例。他們知道 AI 的能力限制,也知道它在哪些場景真的有效,哪些只是炒作。
舉個例子,一個 AI 研究者知道,大型語言模型的「推理」能力仍然非常有限。它們可以根據訓練資料中的模式生成答案,但對於真正需要創新思維的問題,它們往往無法處理。當媒體報導「AI 通過了這個困難的測試」時,專家會問:「這個測試真的測量了什麼?還是 AI 只是記住了類似的題目?」
大眾接觸的是經過媒體過濾的資訊:震撼的標題、誇大的預測、極端的案例。媒體有動機放大恐懼或期望,因為這樣能吸引點擊。
當一則新聞標題是「AI 科學家發現了新的抗生素」,多數人看到的是一個突破。但專家知道,這所謂「新抗生素」是否真的有效、安全,還需要數年的臨床試驗驗證。新聞不會這麼說,因為這不夠震撼。
這不是媒體「作惡」。這是媒體的本質:他們關注的是什麼能引起注意,而不是什麼代表平均情況。
2. 受益體驗的不平等
如果你是一個工程師,你每天都在用 AI 寫程式碼、偵錯、重構,你親身體驗到它帶來的效率提升。你知道它在某些方面真的幫到了你,但在其他方面又很笨拙。你有一個「真實」的經驗,而不是一個「想像」的恐懼。
如果你是一個文字工作者,你用 AI 產生草稿、檢查錯字、改寫段落,你節省了大量時間。你會想:「如果沒有 AI,我今天可能還在寫那段介紹。」
但如果你從來沒有在實際工作中用過 AI,你對它的理解,只能來自別人的描述。而這些描述,往往是極端的:要麼是「AI 將解決所有問題」,要麼是「AI 將毀滅人類」。
當一個人沒有親身體驗,他只能依靠想像。而想像,往往放大恐懼。想像中的「AI 取代你的工作」,比現實中的「AI 幫你做掉 80% 的重複工作,但剩下的 20% 需要更多判斷和創造力」可怕得多。
這就是為什麼,「讓更多人體驗 AI 的好處」本身可能就是縮小認知鴻溝的一種方式。當一個人親身體驗到 AI 如何幫助他,而不是威脅他時,他的態度可能會改變。
3. 時間視野的不同
專家考慮的是 10 年、20 年的長期影響。他們知道,AI 技術還在演進,今天的問題可能被明天的新技術解決。
舉個例子,AI 的「幻覺」問題(生成虛構資訊)現在是個大問題。但研究人員正在開發各種方法來減少它:引用驗證、事實檢查、多模型交叉驗證。專家看到的是一個正在改進的技術路徑。
大眾關注的是現在:我的工作會不會被取代?我的資料會不會被濫用?我需要學什麼新技能才能不被淘汰?
這不是「短視」。這是生存本能。一個現在就面臨裁員風險的人,沒有奢侈去思考 20 年後的美好。他關注的是:我下個月的房貸怎麼辦?我兒子的學費怎麼付?
這種時間視野的差異,讓同一件事有不同的評價。一個長期有利的發展,可能在短期內帶來劇烈的衝擊。專家看到的是長期,大眾承受的是短期。
4. 控制感的缺失
對專家來說,AI 是一個「可以理解、可以控制」的系統。他們知道它是怎麼訓練的、它的參數是什麼、如何調整它的行為。即使不完全理解,他們至少有基本的概念框架。
對多數大眾來說,AI 是一個「黑箱」。它做出決策,但為什麼?它說這是答案,但真的嗎?它收集我的資料,但用在什麼地方?
這種控制感的缺失,會放大恐懼。人類對於「無法理解、無法控制」的事物,天生就有戒心。當你不知道一個系統如何運作,卻知道它可以對你的生活產生重大影響,你會感到不安。
這不是理性或不理性的問題。這是一種基本的情感反應。即使 AI 的決策在統計上更準確,如果不能讓人「感覺」被尊重、被理解,多數人不會接受。
這對我們意味著什麼?
如果你是一個正在思考如何應用 AI 的台灣開發者或企業主,這個認知鴻溝給了你一個重要的提醒:
不要假設你的用戶和你一樣熱衷 AI。
當你設計一個 AI 驅動的產品,不要只是一味地強調它的「AI 能力」。多數用戶對「AI」這個詞已經有某種程度的疲勞甚至戒心。
相反地,你要做的是:
1. 聚焦在具體價值
告訴用戶,這個產品如何解決他們的具體問題,而不是它有多先進的技術。
「我們的 AI 可以自動分析你的顧客回饋」這句話,對多數人沒有感覺。
「你不需要花時間自己讀上百條評論,我們會幫你整理成三個最重要的改進方向」這句話,就有感覺多了。
2. 提供透明度
如果一個 AI 系統做出的決策影響到用戶,盡可能解釋它是如何做出判斷的。
這不代表要完整公開演算法細節(那對大多數人也沒用),而是要提供用戶能理解的邏輯:「因為你最近三天都在查詢機票價格,我們推薦這張信用卡,它有機票回饋」
3. 讓用戶保留控制權
不要讓 AI 完全取代用戶的決策。讓用戶可以審查、修改、覆蓋 AI 的建議。
當用戶感覺自己仍然是「駕駛者」,AI 只是「副駕駛」,他們會更容易接受。
4. 教育和溝通
如果你發現你的目標用戶對 AI 的理解有限,不要急著推銷產品,先花時間教育。
寫一篇清楚的文章,解釋你的 AI 如何工作,它的能力限制是什麼,它如何保護用戶的隱私。
讓用戶理解,AI 不是一個神秘的「黑箱」,而是一個可以被信任的工具,前提是它被正確使用。
差距不一定是壞事
最後,我想說一個稍微不同的觀點:專家和大眾的認知差距,不一定完全是負面的。
它反映了一個健康社會應有的多元聲音。
如果所有人都盲目樂觀,我們可能會忽視 AI 的風險和負面影響。
如果所有人都極度悲觀,我們可能錯過技術進步帶來的機會。
這兩種聲音都需要。它們彼此制衡,也彼此提醒。
對於正在從事 AI 相關工作的你,真正重要的,不是站隊哪一方,而是理解雙方的擔憂和期望。
當你設計產品時,考慮專家的技術現實。
當你溝通時,考慮大眾的真實感受。
這不是要你討好所有人。而是要你認識到,技術的影響是多維度的,而不同的人會從不同的角度體驗它。
那麼,身為讀者的你呢?你對 AI 的態度,比較接近那 10% 的興奮者,還是那 90% 的擔憂者?更重要的是,你身邊的家人、朋友、同事,他們又是怎麼想的?
也許,理解這個鴻溝本身就是一個起點。