Agent 的幻覺:為何行動會製造智能錯覺?
近年人工智能的討論出現一個明顯轉變。當 ChatGPT 剛出現時,人們主要談論的是它的語言能力,例如寫文章、翻譯或回答問題。但隨著各種 AI Agent 系統出現,討論的語氣開始改變。媒體與社群開始形容它「會工作」、「會完成任務」,甚至被稱為「AI 員工」。
這種印象來自互動方式的改變。當人工智能開始執行行動,人類對它的理解也會隨之改變。行動本身往往會製造一種智能的錯覺。
人類對智能的判斷很大程度來自行為觀察。當一個系統只是生成文字,人們仍然容易把它視為一種複雜的工具。它可以回答問題,但仍然停留在語言層面。當一個系統開始執行一連串操作,例如搜尋資料、建立文件、整理資訊或調用不同工具,人類會自然地把這種行為理解為「有意圖的行動」。
這種心理反應十分普遍。在日常生活中,人類很容易把複雜行為理解為智能,例如自動門感應器會在人接近時開門,掃地機器人會在房間中移動,這些系統其實只是執行預設規則,但人們仍然容易對它們產生某種「有生命」的印象。當人工智能開始執行更複雜的任務時,這種感覺會被放大。
AI Agent 的結構強化這種效果。與傳統聊天型人工智能不同,Agent 系統通常會把一個任務拆解成多個步驟,並反覆嘗試不同方案,例如一個任務可能包括搜尋資料、整理內容、生成文件以及調整結果。當用戶看到整個流程時便很容易產生一種印象:系統似乎正在思考並逐步完成目標。
但在技術層面,這些行為通常仍然建立在相同的基礎之上。多數 Agent 系統只是把語言模型與工具調用結合,再加上一個反覆嘗試的流程。語言模型負責生成下一步行動,工具接口負責執行操作,而系統則會根據結果再次生成新的指令。整個過程看起來像是一個自主工作的代理,但本質上仍然是一種自動化流程。
正因如此,AI Agent 常常呈現出一種矛盾現象。在短任務中,它們看起來非常聰明,可以迅速完成多個步驟。但在較長或較複雜的任務中,系統往往會出現錯誤,例如偏離目標、重複操作或陷入無效循環。這些問題是因為系統並不真正理解任務的整體結構。
行動帶來的智能錯覺也揭示一個更深的問題:人類對智能的判斷往往依賴表面行為,並不是內在機制。當人工智能能夠模仿人類的行動模式時,即使底層能力沒有根本改變,人們仍然會感覺它變得更聰明。
這種現象在技術發展史上並不罕見。許多技術突破之所以能夠迅速引起關注是因為互動方式改變人類的感知。當技術從靜態回應轉變為動態行動,人類會自然地把它視為更高層次的智能。所以 AI Agent 的出現既是一種技術演進及感知轉變。人工智能開始模仿工作流程,讓人們更容易把它理解為一種行動者。但這種印象同時提醒我們,行動不等同理解。當人工智能看起來像是在思考時,它實際上可能只是以更複雜的方式執行既有的計算過程。
上一篇:AI 為何看起來像「員工」?