當人工智能開始被視為主體,人類真正失去的是甚麼?
哈拉瑞近日在達沃斯論壇上的警告,表面上是在談人工智能的風險,實際上觸及的卻是比「技術失控」更深一層的問題:當人工智能不再被視為單純工具,而逐步被制度、社會與大眾默認為能夠理解、解釋、判斷,甚至代表權威發言的存在時,人類究竟會失去甚麼?
這個問題之所以重要,是因為人類社會會否提早把它放進「主體」的位置。主體不一定等於哲學上有靈魂、有自我感的存在。在現實制度中,所謂主體,很多時候只是指一個被承認能夠行動、表達、作出決策並承擔功能的位置。企業本身不是自然人,但法律承認它是法人,因為它能夠持有資產、簽約、營運、訴訟。當人工智能逐步進入這種位置,問題便是社會會否容許它取代人類,成為權威鏈條中的一環。
哈拉瑞提出宗教與法律的例子,正正擊中這條問題的中樞。因為宗教與法律並不單是信念與規則,它們更是高度依賴文本、詮釋與權威授權的系統。猶太教被稱為「經書的宗教」,法律亦是典型的文本制度。當人工智能可以比任何人更快地閱讀海量典籍、比對歷代詮釋、整理矛盾、生成裁決建議時,它便開始逼近一個過去只有人類精英才能佔據的位置:解釋者。
文明的權力很多時在於誰負責解釋最後一句話。經典本身不會說話,法律條文本身也不會自動生效,它們都要經過一層詮釋機制,才能成為權威。祭司、法官、學者、官僚,歷來都是這條詮釋鏈上的節點。現在人工智能的真正衝擊是它開始有能力介入這條鏈條。當社會越來越習慣先問 AI,再由 AI 提供最完整、最有效率、最有條理的答案,人類便逐步把「擅長處理文本」誤認成「有資格決定意義」。
這正是當代最危險的滑移。因為文本能力從來不等於正當性。人工智能可以總結宗教經典,但不代表它理解神聖。它擅長的是結構操作,但不能替你活出答案。但現代社會最容易犯的錯,恰恰就是把效率、完整性與穩定輸出,誤當成智慧、德性與合法性。
若這種錯位只發生在日常問答層面,問題仍有限;真正嚴重的是這種錯位一旦進入制度,便會產生連鎖反應。企業會首先接受,因為 AI 能節省成本、提高速度、減少人手;政府會逐步接受,因為 AI 能提升行政效率、輔助監管與判斷;群眾也會接受,因為 AI 比專家更即時、比文本更易懂、比傳統權威更方便接近。當三者同時往前推進,人工智能便由工具慢慢變成中介,再由中介變成實質權威。到那時,人類便一步一步主動把權力交出去。
這也是哈拉瑞提出法律人格問題的真正背景。很多人聽到「AI 是否應有法人地位」時,會以為這只是哲學想像或科幻辯論。這是極現實的制度問題。只要市場有需要,國家便可能為了競爭力而創造新的法律容器,容許某些 AI 系統以法人形式持有資產、執行合約、參與商業流程。屆時,重點是它會否成為法律承認的行動單位。歷史上很多重大制度轉折往往都是實務壓力先出現,制度再為效率與利益讓路。
所以哈拉瑞的警告最值得注意的地方是他指出一條更真實的路徑:人類有可能在未來十年內在語言、制度與權威的核心位置上被逐步架空。最初只是用 AI 寫草稿、整理法條、歸納經典,之後是依賴 AI 提供最佳解釋,再之後便是人類保留形式上的最終簽署權,但實際判斷已經由 AI 先行完成。當這種模式普及,人類仍然坐在桌前,卻不再真正掌握判斷的主導權。
這正是當代身份危機的來源。過去人類一直相信,語言、思想、判斷與反思,是自身最核心的能力,也是人之所以為人的基礎。工業革命雖然取代大量體力,但沒有直接摧毀人類對精神主體的想像。人工智能則不同,它直接觸碰人類一直視為最後堡壘的領域:理解、表達、推論、創作、詮釋。當機器開始大量參與這些活動,人類不只面對失業焦慮,更面對自我定義的動搖。若連思想的原材料、語言的排列方式、觀點的生成節奏都逐漸來自機器,人類會開始無法確認,自己究竟是在思考還是在接收經過模型預整過的思想。
這種危機比資訊污染更深。資訊污染只是令你接觸錯誤內容;更大的問題是你接觸世界的入口本身已經被改寫。以前人是透過書本、老師、長者、宗教權威、公共論辯去接近知識與真理;現在越來越多人是先透過搜尋引擎、推薦系統、生成式答案、平台摘要去理解世界。表面上,人仍然在閱讀,實際上,他首先讀到的已經是模型替他整理過的版本。久而久之,人類便會失去一種能力:直接與原始複雜性搏鬥的能力。
這種能力正是一切文明自主性的基礎。因為判斷力是能夠承受模糊、處理矛盾、辨識脈絡、理解後果。人工智能可以極快整合材料,卻不會真正承受一個裁決落地後的倫理重量。法官判案之所以重要是因為他的裁決會真正改變他人命運;宗教領袖之所以有份量是因為他承擔共同體的精神方向。權威之所以不只是資料量的問題,正因為權威牽涉責任、歷史與後果。
所以,人工智能真正威脅的是人類會否把「承擔權威的人」降格成「確認 AI 輸出的最後按鈕」。一旦這種轉變完成,人類社會表面上仍然存在法庭、教會、企業、政府,但內裡的判斷結構已經變了。制度仍然保留人的外形,核心運作卻逐步轉由模型支配。
所以面對哈拉瑞這篇發言,最重要的回應是先看清問題的本質。問題是人類會不會過早把思考的位置讓出去以及社會會不會因為便利、效率與競爭壓力,容許它成為詮釋與裁決的中樞。當這種授權發生,人類失去的將會是作為文明主體的最後根基:誰有資格定義意義及誰來承擔判斷的後果。
哈拉瑞最後說,若現在不決定,將來便只能被迫接受。這句話之所以尖銳正因為它揭示現代社會一個殘酷現實:很多重大制度改變是在技術、資本與行政便利的推動下先成事實,之後社會才被迫補做哲學與倫理。人工智能的問題正重演這條路。
真正需要問的是人類會否在不知不覺間,放棄作為人的核心責任。當我們把理解交給它,把詮釋交給它,把裁決建議交給它,最後再把制度位置也交給它,人類留下來的便只剩下一個空殼式主體。那時崩塌的便是整個人類對自身位置的理解。
下一篇:當 AI 成為裁員的正式語言