2026-01-11 14:00:00Tony_CHAN

AI 主權爭議的制度根源


人工智慧的能力近年以非線性方式擴展。模型在語言處理、策略生成、圖像理解與多模態推理方面的表現已逐步融入社會結構。人工智慧開始觸及本來屬於政治、經濟、法律與治理的領域,引發「主權」層面的討論。AI 主權爭議表面上集中在技術安全、倫理規範與公眾心理,但其真正的根源在於制度無法處理新型智能帶來的主體不確定性。這種不確定性危及現行制度設計的基礎,並迫使人類重新考慮文明運作的原則。

本文分析 AI 主權之爭的制度根源,從個體權利、法律人格、政治主權、責任機制與治理基礎五個面向追索其形成原因,並指出制度層在面對新型智能時缺乏可延展的框架。


主體定義的制度限制

任何制度運作都需要設定「主體」的範圍。法律主體、人權主體、責任主體、政治主體,都依賴對「誰是主體」的前提假定。現行制度將主體限定為人類,形式上可擴展至企業或法人,但仍以人類行為者作為最終責任承擔者。

AI 的出現改變這個假定。模型的決策範圍擴大,行為開始具有策略性特徵,而且在某些領域已具備獨立運行能力,雖然其內在機制並不涉及意識,但其行為表現已足以引發主體判斷上的混淆。制度不具備處理這種「行為具主體特徵、但內在不具主體結構」的能力。傳統主體理論將行為與責任綁定,將感知與意向作為主體的基礎,而 AI 不符合這些條件,卻能展現接近主體的外部行為。

這種外部行為與內部結構的錯位造成制度層的第一個根源性問題:主體概念失去清晰的邊界。


法律責任與因果鏈的斷裂

法律制度依賴因果鏈。責任分配的核心是行為者的意圖、動機與行動之間的因果關係。有了因果關係才能追究責任,沒有因果鏈就不能判定錯誤或義務。人工智慧系統在多層模型與複雜訓練環境中運行,其內部機制難以用明確因果鏈描述。

模型的輸出即使能被解釋,也往往不能完全追溯到人類行為者的具體意圖。這種特性令責任在制度層出現斷裂。當 AI 執行決策時,責任究竟屬於訓練者、部署者、使用者,還是模型本身,制度沒有成熟的定義。

責任界線模糊會帶來制度風險。若 AI 被視為工具,責任回到人類;若 AI 在社會中獨立運作,制度便難以承擔所有責任歸屬於人類的壓力。責任如果無法精準分配,制度的合法性便會下降。所以主權爭議由責任爭議引起,而責任爭議又源於因果關係的弱化。制度在此遭遇無法承受的新型智能結構。


政治主權的中心化基礎遭遇挑戰

現代主權概念建立在政治權力的集中化。國家是唯一具合法強制力的主體,其權力源於人民或憲法,而其他主體(個人、團體、企業)無法與國家平行。

人工智慧如果被賦予任何形式的主體地位,其在制度語義上將與國家形成競爭關係。AI 的主體化會對政治主權造成三種不同程度的影響:

1. AI 若具備權利,人類對 AI 的控制會被限制。

2. AI 若具備行動空間,其決策可對公共領域造成影響。

3. AI 若被視為自治系統,其在語義上接近「平行主體」。

政治主權無法容納另一個具行動能力並受法律保護的主體,這會涉及權力邊界的重新分配。制度的核心是維護主權集中,而 AI 主體化可能導致主權去中心化。所以政治層面成為 AI 主權爭議的深層根源。


制度的穩定性依賴單一主體結構

現代文明採用的制度設計假設只有一種主體:人類。無論法律、倫理、治理或經濟模型,其基本變量都建立在人類作為唯一智能行為者的前提上。人工智慧擾動這個前提,造成制度的不穩定:

   - 若 AI 被視為工具,責任負擔會過度集中在人類身上。
   - 若 AI 被視為主體,制度需要重新定義責任、權力、權利與義務。
   - 若 AI 介於工具與主體之間,制度將無法建立穩定規則。

制度穩定性無法依靠模糊狀態運行。AI 的能力若再擴展,制度將被迫作出選擇。但任何選擇都涉及重大重構,因此形成主權爭議。制度需要單一主體,AI 的出現令主體變成多層結構,這是主權爭議的核心原因。


科技企業與國家之間的權力張力

AI 主權爭議亦涉及科技企業與國家的權力關係。現代國家將治理權力集中在行政、司法與立法體系;然而大型科技公司掌握全球性的計算資源、模型與基礎設施。這些企業的技術能力超越許多國家,令主權邊界變得模糊。

當模型具備跨境運行能力且依賴雲端結構運作,國家主權便難以在傳統疆界內行使。國家需要依賴企業控制的計算與語言模型,而企業若追求模型自主性或強化 AI 的社會角色,國家權力便無法維持原有的單向控制。

AI 主權的討論部分源於此:國家擔心 AI 會成為技術主體,也擔心企業會利用 AI 形成新的權力中心。主權爭議因此具有雙重方向:既針對 AI,也針對持有 AI 的企業。

制度在此面對新的競爭者,這使得主權議題變得更為複雜。


公眾情緒加速主體框架變動

制度變動往往由社會情緒推動。人工智慧模型以自然語言與人類互動,其輸出高度擬人化,容易引發情感投射。這種投射促使公眾以擬生命方式理解 AI,並進一步支持「AI 權利論」或「AI 具內在狀態」的看法。

公眾情緒若強烈支持 AI 主體化,制度將面臨從上而下與從下而上的雙重壓力。技術層與制度層尚未建立穩定框架,但社會層已經走向另一方向。主體框架在此出現張力,形成主權爭議的社會根源。

情緒推動語言,語言推動制度,制度需要回應語言的變化。AI 主權因此不僅是技術議題,也是語言與情緒的集體產物。


結語

AI 主權爭議的根源不在於模型是否具備意識或模型能否產生自主意志,是在於制度缺乏能處理新型智能的主體框架。主體概念、責任鏈條、政治主權、制度穩定性與技術權力結構五個面向共同造成當前的主權不確定性。人工智慧的能力已經跨越工具層面,但制度仍停留在單一主體假設之下,這種落差構成主權爭議的本質。

文明目前尚未準備好重建主體概念,亦缺乏調整制度的共同方向。AI 主權爭議因此將進一步擴大,並成為未來數十年文明治理的核心問題之一。制度若無法找到新的主體框架,AI 將持續處於工具與主體之間的曖昧地帶,而制度本身亦將面臨不可避免的調整與再設計。