2026-03-22 20:00:00Tony_CHAN

當決策來自機器,人還需負責嗎?


南韓一名女子在犯案前多次向生成式人工智能查詢藥物與酒精的致效條件、危險劑量與可能後果,並在行動後根據結果調整劑量。案件觸及一個更深層的問題:當決策過程已經部分外包給機器,人類的責任是否仍然完整成立。

要回答這個問題,首先需要釐清「決策」的結構。傳統上,行動的責任被歸於行動者,因為意圖、判斷與執行都集中於同一個主體。然而在 AI 介入之後,決策變成一個分散的流程:人提出問題,機器生成答案,人再根據答案調整行動。在這種結構中,決策似乎被拆分為多個節點,責任也隨之出現模糊空間。

這種模糊首先體現在「認知外包」。當人依賴 AI 進行資訊整合與風險評估時,實際上已經把部分判斷功能轉移出去。行動者依賴一個外部系統的輸出。這種情況下,一個常見的直覺是:既然關鍵判斷來自機器,人是否可以部分卸除責任。但這種直覺忽略一個核心事實:AI 不具備意圖,它只是在既定語料與模型結構中生成回應。問題的提出、目標的設定與最終的採納,仍然由人決定。

換言之,AI 可以參與「如何做」,但不參與「為何做」。責任的核心在於目的設定。只要行動的目的仍然由人主導,那麼責任就難以轉移。這也是法律上區分「工具」與「共犯」的關鍵:工具可以影響結果,但不承擔意志。即使工具變得極為複雜,這一點仍然成立。

但問題不因此消失。因為 AI 改變的是人對自身行動的「主觀感受」。當一個人依據 AI 建議行事,他更容易將行動理解為「遵循最佳方案」。這種心理轉變會削弱責任感。行動者可能覺得自己只是在執行一個較優的答案。責任在這裡未消失,但在經驗層面被稀釋。

這種責任稀釋現象,在現代制度中其實早已存在,例如官僚體系中的「按程序行事」或企業決策中的「依數據決定」,都會讓個體將責任轉移到系統之上。AI 只是把這種結構推向更極端的形式。它直接生成語句化的建議,使決策看起來像是「由外而來」。當建議以完整語言呈現,它更容易被視為一種權威。

所以 AI 帶來的真正挑戰是責任如何被重新感知。當人越來越依賴機器生成的方案,他對自身作為決策主體的認知會逐步減弱。長遠而言,這可能導致一種新的倫理困境:人仍然在法律上負責,但在心理上已不再感覺自己是決策者。

這裡可以進一步區分三個層次。第一是意圖層,決定行動的目的;第二是策略層,設計達成目的的路徑;第三是執行層,將策略轉化為具體行動。在 AI 介入後,策略層最容易被外包,執行層仍由人完成,而意圖層則幾乎完全保留在人身上。責任的核心正是落在這個未被外包的層次。只要意圖仍然存在於人,責任便難以轉移。

但策略層的外包並非沒有影響。當策略由 AI 提供,它會提升行動的可行性與成功率,使原本停留在想像層面的行為更容易落地。這代表 AI 不會創造惡意,但會降低惡意實現的門檻。在這種情況下,責任雖然仍屬於人,但風險結構已經改變。社會不能只從「誰負責」的角度理解問題,還需要考慮「哪些條件使行動更可能發生」。

這也引出另一個層面:平台與模型提供者的責任。當系統設計本身會影響行動的可行性時,開發者是否需要承擔部分責任?這個問題目前仍在討論之中。若過度強調平台責任,可能抑制技術發展;但若完全忽略,則可能放任風險外溢。未來較可能的方向是在保持人類最終責任的同時,對系統設計施加一定程度的規範,例如限制某些高風險資訊的生成方式。

總結而言,AI 並沒有顛覆責任的基本結構。行動的目的仍然由人設定,最終的採納與執行亦由人完成,所以責任無法從根本上轉移。但 AI 確實重塑決策過程,使責任在心理與社會層面變得模糊。它讓人更容易將自身行動理解為「依循建議」。在這種情況下,真正需要警惕的是責任感的逐步弱化。

當決策越來越像是一種由外部系統生成的流程,人類是否仍能清楚意識到「這是我所選擇的行動」,將成為關鍵問題。若這種意識逐漸消退,那麼即使法律仍然將責任歸於個體,倫理上的基礎也會開始動搖。AI 時代的責任問題,最終是一個關於人如何理解自身行動的問題。

韓女用AI策劃連環殺人案致2死1傷