2025-12-16 17:06:09Tony_CHAN

AI 炒作的結構


當一門技術需要靠「情緒」維持可信度

近年 AI 的公共討論,已經由工程與產品層面的議題轉向一種更像「文明敘事」的語言:它被描述為不可逆的浪潮、即將到來的終局、全行業的清洗、甚至人類命運的分水嶺。這類語言並非一定錯,但它有一個代價:當敘事的速度超過技術的落地速度,人們會先感到興奮,繼而感到疲乏,最後只剩「爆爆地」的直覺。

要理解這種直覺,關鍵不在於判斷 AI 有冇用,而在於拆清楚:公眾所感受的「AI 熱」,究竟是技術進步本身還是由市場、媒體、資本與競賽機制共同製造的熱度?


技術進步與敘事擴張:兩條曲線、兩套邏輯

真正的科技進步往往具備幾個特徵:累積的、分工的、滲透式的,並且充滿「局部改善」,例如更穩、稍快、更省、較易部署、較少錯誤。這種進步很少在一夜之間讓外行人感覺「世界變了」,但它會在一年、三年、五年後讓整個產業的工作方式悄悄重組。

相反,市場敘事追求的是:可被快速理解、可被轉述、可引發情緒共鳴的故事。故事越大越好,越能在社交媒體與新聞標題中流通。於是,技術在慢慢爬坡,敘事卻像火箭升空,兩者自然錯位。

這種錯位帶來兩個後果:
第一,人們將「曝光」誤認為「突破」。
第二,人們將「願景」誤認為「能力」。
結果是討論越熱,落地越冷,新聞越多,實感則越弱。


炒作的核心是「語義偷換」

AI 炒作最常見的技術是把幾個層級不同的概念混成一團,令聽眾在不自覺之間把「工具級改良」聽成「智能級飛躍」。常見的語義偷換包括:

1)把「生成得像」偷換成「理解了」

LLM 最強的一點是能在語言層面生成高相似度的答案,令使用者產生「它懂」的感覺。但在很多場景,生成得像並不等於理解,尤其涉及因果、責任、邊界條件與真實世界約束。當宣傳把「像人」偷換成「等於人」,市場自然高估。

2)把「demo 可行」偷換成「產品穩定」

演示可以挑選題目、控制環境、迴避極端案例;產品要面對雜訊、偏差、責任、對抗與不可預測的用戶行為。很多 AI 方案「在台上像魔法」,落地後變成「一個要大量人工驗證的半成品」。

3)把「局部取代」偷換成「全面取代」

AI 確實可以吞掉一些重複性工作,但很多工種的核心是有關責任承擔、風險管理、利益協調、現場判斷、信任關係,把「局部效率提升」說成「全行業清洗」,是炒作慣用的張力製造法。


競賽敘事:把迭代包裝成戰役,把更新包裝成改朝換代

一旦引入「競賽框架」,每次發布就會被描述成「勝負已分」。某公司推出新模型、另一家公司追上、再一家公司超越,公眾會產生「每天都在歷史轉折點」的錯覺。

但從工程視角看,很多所謂「大幅領先」其實是:資料、提示詞策略、工具鏈整合、產品化體驗、部署與推理效率的綜合優化。這些當然重要,但它們更像工業化與工程化的進步,不必然等於「智能層級的跳躍」。

競賽敘事的作用,是把本來應該被理性看待的改良,轉譯成情緒化的戰報。它讓外界忽略了更重要的問題:這些模型在真實場景中是否可靠?成本是否可控?責任如何界定?資料與版權如何處理?安全與合規如何落地?


資本邏輯:投資市場買的是「未來壟斷」,不是「現在效用」

資本最擅長把不確定性包裝成必然性。當市場相信某條技術路線可能帶來「平台級壟斷」,估值會提前反映未來十年的想像。於是我們會看到:公司未必賺錢,但估值可以沖天;產品未必穩定,但聲量可以覆蓋一切。

這是資本的本性:它不需要等我們證明一切,只需要我們看起來足夠像「下一個作業系統」。問題在於,AI 作為一種能力,可能更像電力、像資料處理、像統計推理,未必自然導向單一壟斷。當市場過早用「平台壟斷」去定價「通用能力」,泡沫感便出現。

更現實的爆點是當企業採購開始追問「你幫我節省多少成本、降低多少風險、帶來多少收入」,敘事的溢價會被迫回吐。這通常會以:縮減預算、延後部署、合併裁員、回歸務實的方式慢慢發生。


成本與責任:AI 最容易被忽略的兩道硬牆

炒作之所以容易,因為它聚焦「效果」,回避「代價」,但 AI 代價通常集中在兩個地方:

1)成本牆:推理費用、算力、資料、整合、人力驗證

對個人使用者而言,AI 像魔法,而對企業而言,AI 像一個需要長期供養的系統。當我們把模型接入流程,我們要付的不只是一個 API 的費用,也有:資料治理、權限管理、日志追蹤、模型更新、提示詞維護、測試回歸、合規審計以及最昂貴的大量的人力驗證。

2)責任牆:錯一次就夠致命

在寫文案、做腦圖、改程式這類低責任場景,AI 的「偶發錯誤」可被容忍。但當它進入法律、醫療、財務、公共服務、高風險工程,錯誤的代價變得不可承受。此時企業會發現:AI 可以生成,但不會承擔,也可以建議,但不會負責。這道責任牆會逼迫市場把 AI 從神話拉回工具定位。


媒體與平台:為何「失真」是系統性結果

如果你覺得 AI 討論越來越像宣傳,這往往是平台機制的結果。

在注意力市場中:
    - 「AI 令你失業」比「AI 在某些流程提升效率」更易傳播;
    - 「AGI 明年來臨」比「模型仍有多重限制」更像新聞;
    - 「某公司超越某公司」比「成本、合規、可靠性」更適合做標題。

於是資訊供給會自然偏向戲劇性,偏向二元對立,偏向宏大敘事。久而久之,公眾不再是在理解 AI,只是在消費 AI 的故事。


甚麼才算真正的科技進步?看三個貼地指標

如果要把炒作與進步分開,可以用三個非常貼地的指標判斷:

指標一:可靠性是否上升(可重現、可驗證、可追蹤)

進步是指「更穩定」,能否在大量真實資料與不可控輸入下仍保持可接受的錯誤率,是分水嶺。

指標二:成本是否下降(同等效果下更便宜、更易部署)

真正的技術成熟通常伴隨成本下降與普及化。當同樣效果需要更少算力、更少工程維護,才叫走向工業化。

指標三:責任是否可界定(誰負責、如何審核、如何追溯)

能否被納入制度,決定它能否進入高價值場景。一項技術如果永遠停留在「好用但不敢用」,就永遠只能做輔助,不能成為基礎設施。


結語:AI 的價值會留下,但神話必然退潮

AI 正在進步,並且會長期改變很多工作方式;但「AI 熱」並不等於「科技飛躍」。當敘事過度膨脹、估值過度提前、競賽過度戲劇化,公眾的泡沫感便是合理反應。

更成熟的態度不是唱淡或追捧,而是把討論權拉回幾個硬問題:
1. 它在真實場景是否可靠?
2. 它的成本是否可持續?
3. 它在責任與制度上如何落地?
4. 它究竟在替代工作,還是在重組流程?

當我們能夠用這套問題框架去看 AI,炒作自然會消退,而真正有用的部分反而會在喧囂之後更清晰、更穩定地留下。