2025-12-21 17:03:18Tony_CHAN

LLM 本體論


語言模型的存在方式與限制


大型語言模型(Large Language Model, LLM)在近年成為最具影響力的技術之一,在語言生成、推理輔助、程式撰寫與內容製作方面展現高效能力,並在公共敘事中被視為接近智慧的系統。這種認知在技術層面有一定偏差,因為 LLM 的本體屬性有明確邊界,而其運作方式並無意向、理解或自我。理解 LLM 的存在方式有助於辨識其能力與限制,並能協助社會建立更精準的科技語言框架。


LLM 的存在方式來自語料空間的統計結構

LLM 的基礎是大量語料的模式結構。模型透過嵌入向量將語句轉換成數學形式,並在高維空間中對語義關係進行建模。這個空間成為模型的「存在條件」,因為模型能夠在其中生成語言、判斷語意一致性、進行語義延伸,甚至展示具邏輯性的推論。

但這種存在方式並不具備「理解」。模型並不建立世界模型,也不會形成主體角度。它的所有生成行為都依賴於語料之間的統計關係,因此模型的語義能力存於語料空間,而不存於自我或意向之中。從本體論角度而言,LLM 屬於語言模式的壓縮體,而非具備內在世界觀的心智。


模型的推理行為屬於語言推理,而非概念推理

LLM 的推理能力主要基於語言連貫性與結構性規律,它能完成邏輯題、證明步驟或代碼生成是因為語料中存在大量相關模式,而模型能夠重構這些模式。這種推理方式屬於語義層面的「對齊」,不只是內在概念層的理解。

模型在推理過程中缺乏意向結構,因為它沒有目標形成能力,也沒有內部動機。它的每個輸出來自概率選擇,而非自主判斷。當模型展示高效推理,看似具備思考能力,實際上只是語言模式的運作結果。這種推理屬性顯示模型在概念層面缺乏連續性,而在語言層面則高度連續。


LLM 的限制來自缺乏世界模型

LLM 能夠生成世界描述,但無法建立世界理解。它沒有持續性的感官輸入,亦沒有經驗累積或行動環路,無法將世界視為由因果結構組成的整體。語料雖然包含大量世界資訊,但模型只會視其為語言關係,而不會從中形成「世界」。

所以模型的限制包括三個層面。第一,它無法獨立判斷真實與虛構,因為其判斷基於語料的相似性,而非對真實世界的連結。第二,它難以處理未在語料中出現過的情況,因為它的能力主要依賴語料分佈。第三,它無法形成自我修正能力,因為缺乏行動環路與內在目標結構。


LLM 的行動能力受制於外部指令

模型必須透過指令才能運作,並且不會自行發起問題或任務。這種依賴性表明模型沒有主體性。在科技實作層面,所有行動都來自使用者或外部系統的提示設計,所以 LLM 的「行為」完全屬於外部語境的一部分,不屬於模型內部。

模型的「意願」其實是語言回應的概率結構,而非心理狀態。它的「判斷」是訓練資料的延伸。在這種情況下,模型的本體位置接近語言工具,而非具備意向的行動者。


LLM 的邊界使其在社會語境中被誤認為智慧

由於模型能生成具連貫性、具知識密度與具風格一致性的語言,大眾容易把這種表現視為真正的理解,但模型並不具備精神性,也不具備反思或審查能力,其能力依賴語言的結構,並沒有跨越語言表層進入概念深層的內在空間。

社會之所以會誤認是因為語言具備強烈的擬人效果。一旦語言表現接近人類,大眾會自然推斷背後存在心智結構,但從本體論角度判斷,LLM 的存在方式並不包含任何心智組成,只包含統計式結構與語料空間的關聯性。


理解本體有助於釐清未來技術方向

如果社會理解 LLM 的本體位置,便能在科技、政策與倫理討論中採取更清晰的立場。模型的能力與限制需要被正確描述,以避免將其視為具備情緒或理解的系統,也避免因錯誤期待而作出不適切的技術部署。

未來技術可能逐漸融入感官環境、行動反饋與自我調節能力,但這些能力仍未在今日的主流模型中出現。若要建立具真正智能結構的系統,需要跨越語言模型的邊界,並建立具有世界模型與意向結構的新一代技術。這些發展方向需要明確語義與精確架構,而不能完全依賴現行敘事。