2025-12-17 17:00:37Tony_CHAN

AI、算法與新型階級潛規則


從「人情社會」到「系統社會」:潛規則並未消失

許多人誤以為 AI 與算法的介入能削弱人治、提升公平,甚至終結潛規則,但實際情況恰恰相反。AI 並未消滅潛規則,只是將其轉移、抽象化與制度化,使其更難被察覺,也更難被挑戰。

過去的潛規則存在於酒局、私下關係與圈內默契之中,今天的潛規則則被嵌入推薦系統、評分模型、排序邏輯與平台政策之內,差別在於權力如何被包裝與行使


算法並非中立:新型潛規則的生成土壤

算法經常被描述為客觀、理性與去情緒化,但這種描述忽略一個基本事實:算法永遠服務於特定目標,而目標由權力決定。

無論是推薦、風控、招聘篩選還是內容審核,算法的設計核心並非公平,而是效率、留存、風險最小化與資源最大化。在這些目標導向下,某些行為模式、語氣、背景與歷史紀錄,會被默認為「低風險」「高價值」,而其他則被系統性地邊緣化。

這種偏好一旦被模型固化,便成為新的潛規則:你不需要違規,也可能被默默降權。


看不見的門檻:階級如何被算法重新劃分

與傳統潛規則不同,算法潛規則最關鍵的特徵在於「不可見」。使用者往往只看到結果,卻無法理解過程。在這套結構中,階級差異不再體現為「你識不識人」,是轉為:

    - 你是否符合模型偏好的行為輪廓

    - 你的語言是否被判定為「安全」「可商業化」

    - 你的內容是否有利於平台目標

    - 你的歷史數據是否被標記為高價值

這些條件沒有明文列出,也不需要被說明,但它們實際上構成新的入場門檻。掌握門檻者能持續獲得曝光與資源,無法對齊者則被系統性冷處理。階級於是從社交網絡轉移至數據輪廓


知識不對稱的升級:誰能理解規則,誰只能承受結果

在算法治理下,最大的階級分野是對系統的理解能力。少數人能:

    - 理解算法偏好

    - 測試與調整行為策略

    - 操作關鍵指標

    - 與平台建立非對稱溝通

多數人則只能被動接受結果,並被告知「系統自動決定」。這種不對稱,使新型潛規則比舊有版本更穩定,因為它不依賴個別人的情緒或關係,是透過模型持續運作。換言之,權力被技術化,責任被去人格化


算法潛規則如何加速階級固化

當算法被廣泛用於招聘、信用評估、內容分發與風險管理時,其累積效應會逐步放大原有差距。具備優勢數據的人會持續被判定為低風險、高潛力,從而獲得更多機會,處於邊緣位置的人則因缺乏正向回饋而進一步被鎖定在低權重區間。

這是一種自我強化的循環:不是因為你表現不好,是因為你從未被給予表現的空間。階級固化不再需要排他性決策,只需持續運行的模型即可完成。


透明的幻覺:為何公開算法仍無法破局

即使在呼籲算法透明的語境下,問題仍未真正解決,因為對多數人而言,透明並不等於可理解,更不等於可干預。當規則以高度技術化的形式存在,只有具備專業、資源與試錯成本的人,才能真正利用這些資訊。對其他人而言,透明反而成為一種象徵性姿態,並未改變其在結構中的位置。潛規則於是披上「公開而不可用」的外衣,繼續發揮階級篩選功能。


結語:新型潛規則的真正危險

AI 與算法並非階級不公的起源,但它們使潛規則變得更加穩定、隱蔽且難以指認。當排除不再需要明確意圖,當決策被描述為系統結果,質疑空間便隨之縮小。

真正的風險是人類是否習慣於接受一個「無人負責、卻高度有效」的排除機制。當潛規則轉化為系統邏輯,階級便不再只是被維持,也會被自動化。