2026-03-23 17:00:00Tony_CHAN

當 AI 進入人性黑暗面,技術中立是否只是幻覺?


在多數關於人工智能的討論中,「技術中立」幾乎是一個預設前提。它代表技術本身沒有善惡,問題只是人如何使用。當生成式 AI 開始深入人類決策過程,這個前提正逐漸變得不足,甚至可能構成一種誤導。所謂中立建立在一個假設之上:技術只是被動回應,不會改變行為結構。但現實正在顯示 AI 不僅回應需求,還重塑需求的實現方式。

以近期一宗案件為例,一名行兇者在犯案前,多次透過 AI 查詢藥物與酒精的交互作用、危險劑量及可能後果。這些問題表面上屬於醫學資訊範疇,並不直接構成犯罪指令,但它們在實際情境中,構成一條連續的決策鏈。問題是 AI 是否在客觀上參與了從意圖到行動之間的轉譯過程。當技術能夠在這個關鍵區間提供高效率的推演與整合,「中立」便變成結構問題。

傳統工具的中立性較容易成立,因為它們主要延伸的是人的物理能力,例如刀具可以切割,但不會告訴你應該如何選擇角度或順序。生成式 AI 則不同,它延伸的是人的認知能力,包括資訊篩選、風險評估與策略組合。這使它不再只是「能不能做」,也是「怎樣更有效地做」。當一項技術直接介入方法層面,它對行為的影響便不再是外圍,也涉及內部。

這種轉變可以用一個簡單對比來理解。在沒有 AI 的情況下,惡意往往停留在低解析度狀態:想法模糊、步驟不清、結果不可預測。這些不確定性本身會對行動構成阻力。當 AI 介入後,這些阻力被系統性削弱。人可以用連續提問的方式,把模糊問題拆解為可處理的子問題,再逐步拼接成一個完整方案。即使 AI 的回應保持在表面中立的資訊層面,它依然可能在結構上協助使用者完成「從不知道如何做」到「大致知道怎樣做」的跨越。

所以「技術中立」在這裡面臨的挑戰是技術是否改變了行為的可達性。當某些原本成本極高、門檻極高的行為,因為 AI 而變得更易實現,技術便在事實上重新分配了風險。這種重新分配只需要提升效率,就足以對現實產生偏向性的影響。

更進一步看,生成式 AI 並非對所有人性面向平均放大。它特別擅長處理高需求密度、目標明確、可被拆解的問題。這類問題在商業領域表現為效率與創新,在人性黑暗面則可能表現為更精準的操控、更有效的欺騙,或更可控的暴力。換言之,AI 的「中立」不等於「均勻」。它會自然偏向那些可以被優化的行為,而極端行為往往正具備高度可優化性,因為它們目標單一、限制較少。

這也引出一個更深層的問題:現代社會本身已經是一個以優化為核心的系統。從商業指標到個人生活管理,我們不斷將各種活動轉化為可量化、可比較、可提升的流程。AI 的出現沒有改變這個方向,只是把它推向更高密度與更低門檻。當這套邏輯延伸至人性的灰暗地帶,問題便是整個文明的運作方式是否已經默許「一切皆可優化」。

在這個意義上,技術中立更像是一種語言上的保護機制。它讓我們可以把責任完全歸於個體,從而避免面對結構性變化。但當技術開始改變行為的可行性邊界,單純以個體動機解釋問題,已經無法覆蓋全部現實。技術沒有意圖,但它會改寫可能性;它不選擇目的,但會影響哪些目的更容易被實現。

所以我們可以問另一個更精確的問題:當一項技術能夠系統性降低某些行為的成本,它還能否被視為在效果上中立?答案未必是否定的,但至少不再是理所當然的肯定。

當 AI 進入人性的黑暗面,它所帶來的真正挑戰是舊有的惡被重新排列、壓縮與優化。這種變化會滲透在一次次看似無害的查詢、分析與建議之中。技術依然可以宣稱自己沒有立場,但現實會逐漸顯示,所謂中立可能只是我們尚未完全理解其影響方式之前的一種暫時說法。