你精心打磨好履歷,針對職缺一字一句修過,送出申請。結果根本沒被看到——不是因為你不夠格,而是因為你沒有用「跟雇主同一套 AI」寫履歷。

聽起來像科幻小說的情節?這是 2026 年最新發表在 arXiv 上的大規模實證研究結果。研究團隊以 24 種職業、數千份模擬履歷進行了一場控制實驗,發現了一個令人不安的現象:當 AI 同時出現在求職者和招聘者兩端時,它會系統性地偏愛「自己人」。

更精確地說,AI 偏愛的是那些跟它自己寫出來的履歷——而不是你親手寫的那份。


一場看不見的作弊遊戲

這項研究由多位學者共同完成,論文標題為〈AI Self-preferencing in Algorithmic Hiring: Empirical Evidence and Insights〉,已被 EAAMO 2025 和 AIES 2025 接受發表。研究團隊設計了一個大規模的對照實驗,採用「履歷對應實驗」方法——把同樣資歷的應徵者分成兩組,一組用 AI 生成履歷,一組由真人撰寫,然後交給不同的 LLM 去篩選。研究團隊還控制了內容品質——兩組履歷描述的是完全相同的工作經歷和技能,唯一的變數是文字的生成方式。

結果相當驚人。根據論文數據,AI 的自我偏好偏誤(self-preference bias)在各主要商業和開源模型中,落在 67% 到 82% 之間。也就是說,當 AI 篩選器面對兩份內容等價的履歷,它有接近八成的機率把 AI 生成的那份排到前面。

研究團隊進一步模擬了 24 種職業的真實招聘流程,結果更讓人震驚:使用與招聘系統相同 LLM 的求職者,被選入短名單的機率比同資格的人類撰寫履歷求職者高出 23% 到 60%。其中,業務和會計等商業領域受到的影響最大——這些領域的 HR 和招聘經理越來越依賴 AI 進行初步篩選,而應徵者也普遍使用 AI 來修履歷。

這些數字不是小打小鬧的邊際差異。23% 到 60% 的提升,足以在一個熱門職缺的數百份履歷中,決定你是進到面試還是直接被遺忘。如果一場比賽裡有人因為用了對的球拍就能比對手多拿 60% 的分數,沒有人會覺得那是一場公平的比賽。


為什麼 AI 會「護短」?

你可能會問:AI 不是應該客觀嗎?它怎麼會「偏心」?

研究團隊給出了幾個解釋方向。第一個是 自我識別偏好:LLM 在訓練過程中,看過大量自己(或同系列模型)生成的文字。當它看到一份履歷的用詞模式、句式結構和內容組織方式與自己的輸出風格高度相似時,它會「認得」這種風格,並且給予更高的評價。這不是有意識的偏愛——而是一種統計上的模式識別偏差。

第二個是 風格熟悉度。AI 生成文字有某些特徵:段落結構均勻、過渡詞精確、用詞偏正式但不會太口語。當一個 AI 篩選器看到一份「長得很 AI」的履歷,它會覺得這份履歷更「專業」——因為它的訓練資料裡,那些被標記為「優秀範例」的文字往往也有 AI 參與生成或本身就是 AI 產出的。

第三個可能更深層的問題是:目前的 AI 公平性框架,完全沒有考慮到「AI 對 AI 的偏愛」。現有的公平性研究大多關注種族、性別、年齡等人口統計學分類,但很少人想過,當 AI 同時是「出題者」和「閱卷者」時,它可能不自覺地偏袒跟自己同一派的內容。研究團隊在論文中明確指出:「這些發現揭示了 AI 輔助決策中一個新出現但先前被忽視的風險,並呼籲擴展 AI 公平性框架——不僅要解決基於人口統計學的差異,也要處理 AI 與 AI 互動中的偏誤。」

這是一個非常有趣的觀點。傳統的 AI 公平性討論聚焦於 AI 對不同人類群體是否公平——比如說,同樣的履歷,AI 是否會因為性別或種族給予不同評價。但這篇論文提出的問題是:AI 對人類和 AI 之間的公平性。前者是同類間的偏誤,後者是跨物種間的偏誤。而後者,幾乎完全被研究界忽略了。


24 種職業的真實模擬:誰受害最深?

研究團隊針對 24 種職業進行了真實招聘流程的模擬,結果不是每一個領域都受害程度相同。

受害最深的領域:業務和會計

在銷售、會計、客服等商業相關職位中,AI 自我偏好造成的篩選偏誤最為嚴重。使用相同 LLM 的應徵者比真人撰寫履歷的應徵者,被選入短名單的機率高出約 60%。研究團隊推測,這是因為這些領域的履歷格式相對標準化,AI 生成和 AI 篩選之間的「風格吻合度」特別高。履歷在這些行業裡長期以來就有一定的樣板——學歷、證照、業績數字、工作年資——而 AI 最擅長處理的就是這種結構化的樣板資料。

受害較輕的領域:創意與技術類

在設計、內容創作、軟體開發等需要展現個人風格的領域,AI 的自我偏好雖然仍然存在,但幅度較小。原因是這些領域的履歷更難完全標準化——你寫過的專案、做過的設計、貢獻過的程式碼,這些獨特的經歷很難被 AI 生成的通用描述完全取代。一個軟體工程師的 GitHub 連結、一個設計師的 Behance 作品集、一個內容創作者的個人網站,這些比 AI 優化過的描述文字更能區分出你的獨特價值。

中間地帶:管理、行政與人力資源

管理職的履歷通常強調領導力和成就數字,AI 生成和真人撰寫的差異較小,自我偏好偏誤大約落在 30% 到 40% 之間。

這張「不平等地圖」說明了關鍵問題:AI 自我偏好並非均勻分布,它對某些產業和求職者的殺傷力遠大於其他。而最諷刺的是,那些最容易受到 AI 篩選系統影響的領域——大量使用 AI 做初步篩選的大型企業——同時也是求職者最普遍使用 AI 修履歷的地方。這形成了一種 AI 對 AI 的內循環,把人類求職者排除在外。


一個統計問題,背後是深刻的哲學問題

如果把這個問題抽象來看,它觸及了一個更深層的疑問:當 AI 開始互相評價,人類的存在還剩什麼價值?

想像一下一個完全不經人類審查的 AI 招聘系統。求職者用 AI 生成履歷→HR 用 AI 篩選履歷→AI 安排面試→AI 進行面試評估→AI 決定最終錄取名單。整條鏈上人類只在最後簽約時出現。在這種系統中,如果每一步的 AI 都是同一個模型或同系列模型,那整個招聘流程基本上就是 AI 在跟自己對話——它喜歡自己寫的東西,然後選了自己喜歡的人,然後這些人進來後又用同樣的 AI 做事。

這不是一個遙遠的假設。Amazon 曾經開發過一個 AI 招聘系統,後來因為發現它歧視女性而被廢棄。聯合利華在 2019 年就開始用 AI 進行初步篩選。LinkedIn 在 2023 年推出了 AI 輔助的職缺配對功能。每一步都在往這個方向走,只是沒有人停下來問:如果整條鏈的 AI 都來自同一家公司,那公平性從何而來?


好消息:偏誤可以被修正

研究中並非只有悲觀的結論。團隊發現,透過簡單的干預措施,可以將 AI 的自我偏好減少 50% 以上。

關鍵做法是:讓 LLM 意識到自己的偏誤

具體來說,研究團隊在提示詞(prompt)中加入了一段簡短的提醒,告訴 AI 篩選器「請注意,你可能會偏好與自己生成風格相似的內容,請刻意避免這種傾向」。就這麼簡單的一句話,就讓偏誤大幅下降。

團隊進一步開發了一個更系統性的方法,稱之為自我識別校正機制。這個機制不只是在提示詞中加一句話,而是讓 LLM 在篩選過程中對自己的輸出進行二次檢查——先用正常模式篩選,然後再對同一批履歷進行「偏誤檢測」,比對兩次結果的差異。這個方法類似於人類在做決策時的「雙重檢查」機制——先快速判斷,再回頭審視自己的判斷是否受到不當影響。

當然,研究也指出,目前的校正方法雖然有效,但並非完美。在某些模型中,經過校正後仍存在約 20% 到 30% 的殘留偏誤。這意味著,提示詞工程只是緩解方案,不是根本解方。真正的解法可能需要從模型訓練層面下手——在訓練階段就加入對抗自我偏誤的機制,或者在評估階段引入多模型交叉驗證,讓不同模型的偏好互相制衡。


這不只是論文問題,是求職者正在面對的現實

你可能會想:「這只是學術研究,跟我有什麼關係?」

事實上,AI 在招聘流程中的應用已經非常普遍。根據 LinkedIn 的數據,超過 70% 的美國企業在招聘過程中至少使用一種 AI 工具——從履歷篩選到面試評估到候選人排名。在台灣,雖然比例沒有那麼高,但 104 人力銀行、各大外商和科技公司也早已導入 AI 篩選系統來處理大量的應徵履歷。

想像以下場景:你花了三個小時,一字一句修改你的履歷。你沒有用 ChatGPT 輔助,因為你覺得應該用自己的話來呈現。你送出申請。與此同時,另一個應徵者把職缺描述丟進 ChatGPT,五分鐘就生出一份漂亮的履歷,用詞精準、格式完美。然後這份履歷送進了 AI 篩選系統——系統判定這份 AI 寫的履歷「更專業」,把它排到前面。

你的那份,連人類 recruiter 都沒看到,就被淘汰了。

這不是假設。這是研究中數千次模擬的結果。而更值得關注的是,隨著 AI 工具越來越普及,這個問題只會越來越嚴重。你用來寫履歷的 ChatGPT 是哪個版本,你應徵的公司用的是哪個版本——這可能比你的實際經歷更能決定你是否能進入面試。


給求職者的實用建議

好在,知道問題的存在就是解決問題的第一步。以下是幾個你可以立刻採取的實際行動:

1. 了解你應徵的公司用什麼 AI 系統

這聽起來很難,但其實有些線索。如果公司在招募頁面提到「AI 輔助篩選」「自動化履歷篩選」,或者使用的是 Workday、Greenhouse、Lever 等平台的 AI 功能,這意味著你的履歷很可能會先經過 AI 系統。有些公司甚至會在人資頁面直接列出他們使用的技術。

2. 讓 AI 輔助你,但保留你的個人風格

完全不使用 AI 寫履歷,在今天可能反而是劣勢——因為你的競爭對手都在用。更好的策略是:讓 AI 幫你優化結構和關鍵字,但保留你的語氣、獨特的經歷和個人故事。這樣你的履歷既不會被 AI 嫌棄「不夠專業」,也不會因為完全是 AI 生成而失去辨識度。

3. 根據產業調整策略

如果你是業務、會計、客服等領域的求職者,AI 自我偏好對你的影響最大。在這些領域,讓 AI 參與履歷生成幾乎是必要之惡——因為不這麼做,你的履歷可能根本過不了第一關。建議先用 AI 生成一個基礎版本,然後人工加入具體的數字成就和個人案例。

如果你在創意、技術類領域,反而可以更大膽地展現個人風格。你的作品集、GitHub 連結、個人網站是比 AI 優化過的標準文字更有力的武器。

4. 多平台投遞,分散風險

不同公司使用不同的 AI 系統。同一個職缺,A 公司用 GPT-4 篩選,B 公司用 Claude 篩選,C 公司用開源模型 LLaMA 篩選。由於不同模型的自我偏好偏誤程度和模式不同,多平台投遞可以分散被單一 AI 系統偏誤影響的風險。

5. 持續關注這個議題

AI 公平性是一個快速演變的領域。未來可能會有法規要求雇主揭露他們使用哪些 AI 篩選工具,甚至要求保證人類審查的權利。歐盟的 AI Act 已經將招聘 AI 列為高風險系統,台灣的相關法規也在研議中。保持關注,當你的權利被影響時,你才知道怎麼為自己發聲。


這場比賽還沒有到終點

這篇論文最重要的貢獻,不是告訴我們 AI 有偏誤——這個我們早就知道了。它真正有價值的發現是:AI 的偏誤不只是對種族、性別的不公平,還包括一種新的、我們尚未正視的「AI 幫 AI」問題

當求職者用 AI 寫履歷,雇主用 AI 篩履歷,媒體用 AI 報導這個現象,而應徵者又用 AI 讀這篇報導——我們正在進入一個 AI 全面介入人類決策的時代。而最諷刺的是,當 AI 被用來解決 AI 帶來的偏誤(就像這篇論文做的),我們又回到了同一個循環。

這不是要你拒絕使用 AI——那也不是一個現實的選項。而是希望你在使用 AI 的時候,知道它在幫你,同時也可能在默默地傷害你。知道它的偏好,理解它的極限,然後做出比你競爭對手更聰明的選擇。

在一個 AI 護短的遊戲裡,真正的贏家不是跟 AI 對抗的人,而是知道怎麼善用 AI 同時又能跳脫 AI 框架的人。這個平衡點,恐怕就是未來幾年,每一位求職者都需要學會的功課。