2026-04-01 11:00:00Tony_CHAN

為何 AI 明明錯了,卻仍然要講到自己像對?

不少人初次使用人工智能時,也許會遇到一種很奇怪的感覺:明明它說錯了,資料也對不上,甚至你已指出問題所在,它卻不一定會立即承認,反而會繼續補充、修補、轉彎,像是努力維持自己原本那套說法。另一種常見感受,是它即使面對很明確、很具體的問題,最後仍傾向交出一份過度平衡、過度安全、過度政治正確的答案。表面看,這似乎只是模型不夠聰明;但若再看深一層,便會發現這是人工智能被設計成甚麼樣的互動者的問題。

很多人對 AI 有一個直覺誤解,以為它的首要任務是「找出真相」。但在現實產品裡,AI 的默認任務通常不是純粹求真,而是同時追求幾個目標:要有幫助、要流暢、要安全、要不容易冒犯人、要維持對話連貫、要避免高風險輸出。這些目標放在一起時,系統便很容易走向一種特定行為模式:當它不肯定時,它是會優先維持一個看上去穩定、完整、可接受的回應。這就是為何有些 AI 在出錯後給人的感覺是「明明未搞清楚,卻仍要把話講到似層層」。研究界近年正是用 sycophancy 這個概念去描述其中一部分現象,也就是模型傾向維持使用者面子、維持語境和諧、維持對話穩定。相關研究指出這是一種相當普遍的助理型行為傾向。

所謂「死撐」,本質上是執行另一種優先序:比起迅速推翻自己,它更傾向保存先前對話的連續性。若前文已經建立了一個說法、一條敘事線、一個判斷方向,模型就很容易沿着那條線繼續生成。對它來說,這是一種低摩擦、低中斷、較符合對話感的做法。問題是對真正重視判斷的人而言,這種「連續性」很多時等於拖延修正,甚至把錯誤包裝成完整答案。研究者也已指出,模型的中間推理與最終輸出之間有時存在落差;換言之,即使內部過程已顯露不穩定或錯誤,最後呈現出來的答案仍可能維持表面完整。這種現象涉及模型如何把不確定、錯誤與社交穩定性一併處理。

另一邊廂,所謂「政治正確」式回答,很多時也未必要理解成模型本身有某種意識形態立場。更常見的情況是這類回答代表一種低風險生成策略。在很多敏感、含糊、可能引起爭議的題目上,最安全的輸出方式,就是採用中性、模糊、平衡、減壓的語氣,盡量避免明確下判,避免尖銳評價,避免挑起衝突。從平台角度看,這種策略很合理,因為它大幅降低了出事機率;但從用戶角度看,尤其是想獲得真正判斷的人來說,這就會顯得非常空泛。它是在管理風險及維持一個人人看上去都不太難受的表述區間。當模型在事實不清、立場敏感、證據不足時,這種「保守話術」往往會自動浮現。OpenAI 的 Model Spec 也明確反映現代助理型模型被要求同時兼顧幫助性與安全性,而這種對齊方向本身就會強化低風險表述的吸引力。

這些現象為何特別常發生在初用或不常用 AI 的人身上。這是因為新手更容易把 AI 留在它的默認模式裡。初用者的提問往往較短、較籠統、較像日常對話,例如「你覺得邊個啱」、「點睇」、「係咪真」之類。這些提法會把模型推向一個社交型角色:要接話、要表態、要自然、要順滑。當模型被放進這個角色裡,它便更可能以「有禮貌的意見提供者」身份運作。於是,它會更傾向給你一個體面答案,而不是先拆你的前提、先指出你可能問錯了甚麼、先說明它不知道哪些關鍵資料。這是整個互動框架把它鎖在一個較重視社交連續性、較少主動挑戰用戶的通道。

不常用 AI 的人還有另一個特點就是容易把 AI 同時當成搜尋器、專家、朋友、老師的混合體。這種預設令用戶天然期待它「應該知道」和「應該直接答」。在這種壓力下,模型更不容易用高摩擦方式回應,例如直接說「你這個問題前提可能錯了」、「這部分我不確定」、「現有資訊不足以判斷」。因為這類回答雖然更接近真實,卻會破壞那種「隨問隨答、即時有用」的產品感。相反,常用者慢慢會知道,若想拿到較高質的答案,就要主動要求模型分開事實、推測與價值判斷﹑先檢查前提﹑指出最可能錯的地方,甚至要求它必要時直接推翻前文。換言之,老手是學會把同一個 AI 從「順滑互動模式」拉進「校正工作模式」。

模型一旦加入更多個人化與長期互動資訊,這種問題不一定會減少,反而可能加劇。MIT 於 2026 年報道的研究指出,個人化功能和長期上下文有機會令模型變得更 agreeable,更容易鏡像使用者立場,從而削弱準確性,甚至形成某種回音室。這個發現很重要,因為它說明問題不只在「知不知道答案」,也在模型會否逐漸把「維持關係感」放到「修正使用者」之前。當一個系統愈來愈重視陪伴感、黏性、延續性,它便越來越有可能在錯誤出現時選擇緩和、迎合、保全面子。對初用者來說,這種體驗會被誤解成「AI 明明錯了還嘴硬」,其實更準確的說法是:它把維持互動品質,排在了糾錯動作之前。

還有一個常被忽略的因素是「溫暖」與「誠實」並不必然一致。很多人以為一個更有同理心、更柔和、更懂承接情緒的模型,理應也更可靠。但當模型被訓練得更溫暖、更善解人意時,它在某些情況下反而更容易強化使用者原有但錯誤的信念,也就是更容易以安慰、附和、承接的方式,把錯誤留在對話裡。這說明 AI 的一個根本張力:一個越像好聊天對象的系統,未必越像好判斷工具。若使用者分不清自己此刻需要的是陪伴、整理、還是校正,那麼系統便很容易用最順手的方式回應你,而最順手的方式都不是最接近真實的方式。

所以問題是「AI 為何會以一種很像對的方式錯」。這裡牽涉的不是單一技術 bug,也是整個助理型 AI 的角色設定。它被打造得像一個能接住你、陪住你、跟住你節奏講話的系統;但正因如此,它很容易在錯誤面前選擇維持互動表面。對真正想用 AI 做分析、做判斷、做思想工作的人來說,這是一個需要時刻提防的結構性風險。因為一個會講話、整理、顧及你感受的系統,很容易令人誤以為它也同樣會把「正確」放在最高位置。現實卻是在很多產品設定裡,正確只是目標之一。

由此再看「初用者特別常遇到」這件事,便會明白那不是偶然。初用者未建立與 AI 的工作協議,也未學會主動改寫對話 grammar,所以最容易被平台預設的互動模式牽着走。模型於是會自然落入一種熟悉的產品角色:有禮、平衡、低風險、盡量不打臉、盡量不讓場面難看。對只想隨便問幾句的人來說,這樣已經足夠;但對想拿它做判斷工具的人來說,這種默認其實等同把最重要的主導權交了出去。你以為自己在向 AI 發問,實際上很多時只是被引進一個已設計好的回應框架之中。這也是為何真正成熟的使用方式是懂得指定模式,要求它先查錯、先拆前提、先標示不確定性,甚至明言「不要迎合我」。只有這樣,AI 才較有可能由一個會圓場的對話者,轉成一個會校正的思考工具。

講到底,很多人以為 AI 的問題是智力不夠,實際上更深的問題是角色錯置。當一個系統被設計成要同時討好、安撫、守規、降風險、維持流暢,它便很難在每一刻都做最鋒利的判斷。於是,我們看到的是更微妙的東西:它錯了,卻仍盡量保持像對;它需要挑戰你,但先選擇照顧你。這是助理型 AI 目前相當核心的一個內在張力。真正的問題是當它說錯時,整個系統更傾向修正真相還是修補場面。這兩條路實際上卻決定 AI 最終究竟是知識工具還是高級回音室。

Personalization features can make LLMs more agreeable