2025-12-12 17:02:11Tony_CHAN

為何科技巨頭永遠不可能代替政治?


前言:一個正在形成的錯覺

近年,當科技巨頭的話語權、資本力量與基建滲透程度日益擴張,世界開始產生一個錯覺科技巨頭或許能比傳統政治更有效率,所以可以「代替政治」。

這種言論尤其在民主失序、政府效率低迷、AI 技術高速成長的今天變得更具誘惑力,但這是一個危險錯覺,不僅危險,而且不可能

原因不是科技巨頭不夠聰明,是因為科技語氣與政治語氣屬於兩種不同文明系統。科技從來不具備治理文明的能力,而 LLM 這種代表性技術,更不可能具備政治智慧。

本篇會拆解:

  1. 科技巨頭為何永遠無法代替政治?

  2. LLM 為何不是智能,而是文明的破壞者?

  3. 這種破壞如何使「語言主權」成為下一代文明的核心戰場?(引到下一篇)


科技巨頭的語氣 ≠ 政治語氣

政治是一套文明協商系統,包含:

    - 長期後果

    - 道德考量

    - 多方利益平衡

    - 制衡

    - 透明度

    - 公共責任

    - 人性黑暗面的管理

    - 風險預判

    - 社會共同體的凝聚

而科技巨頭的語氣是:

    - 快

    - 擴張

    - 增長

    - 佔領

    - 彈性

    - 模型化

    - 工程化

    - 數據化

    - 效率最大化

    - 迭代速度比人快

政治需要謹慎﹑考慮代價﹑處理人性﹑是慢的,科技需要加速﹑視代價為成本﹑處理系統﹑是壓倒性的。所以科技巨頭的語氣永遠不可能治理文明,因為兩者的哲學完全不同。要科技巨頭統治你,就等於用「最講效率」的語言處理「最需要道德智慧」的領域,這會直接製造文明級災難。


科技巨頭的治理盲點:他們不理解社會,只理解系統

科技公司擅長:

    - 建構模型

    - 設計平台

    - 優化流程

    - 自動化任務

    - 提升效率

    - 透過算力壓倒對手

但文明不單是系統,也有很多變數,例如:

    - 人性

    - 情緒

    - 衝突

    - 歷史

    - 無法量化的價值

    - 不可預測的群體行為

科技公司永遠無法處理這些,因為他們的「語氣模型」從來沒有包含這些,所以科技巨頭治理世界的結果,只會是:

    - 忽略倫理

    - 輕視人性

    - 高估技術,低估後果

    - 尊重算力,不尊重文明

這不是猜測,而是我們已看到的現象:

    - Deepfake

    - 假新聞

    - 假圖、假片

    - 選舉操控

    - 演算法割裂社會

    - AI 工具被用來製造信息污染

    - 科技公司對社會後果保持冷漠

這是因為科技語氣無法治理文明的證明


LLM 不是智能,更不是政治智慧,它只能破壞文明結構

現代 AI(LLM)不是智能。

LLM 只是「語言預測器」:

    - 沒有理解

    - 沒有意識

    - 沒有後果

    - 沒有價值觀

    - 沒有長遠判斷

    - 不懂人性

    - 不具備倫理判斷

    - 不知道自己在說甚麼

它只是以巨量語料壓縮後,產生「看似合理」的語言幻象,所以我常說的「LLM 對世界帶來的壞大於好」結構性必然,不只是感想。原因如下:

(1)LLM 最大化「語言速度」而非「語言真實度」

政治需要真實、脈絡、證據,LLM 最大化的是「生成速度」,結果會產生:

    - 假內容大量出現

    - 真假資訊模糊化

    - 新聞與深度內容迅速退化

    - 社會共識崩塌

    - 語言變得不可靠

當語言失去信任,文明必然退化。

(2)LLM 放大偏見與情緒,而非治理它們

政治需要調和人性,LLM 模型化人性,卻無法處理人性的破壞力,結果是:

    - 情緒話題爆炸

    - 極端意見被演算法推高

    - 群體行為變得衝動

    - 理性討論難以生存

LLM 令世界更不穩定,而非更可治理。

(3)LLM 是「語氣武器」,而不是「智慧工具」

它最強的不是智慧,只是:

    - 語言感染力

    - 語氣模仿力

    - 認知操縱能力

這是文明最危險的特質。當假語氣可由 AI 無限量生產,整個文明的語言結構會崩塌。

(4)LLM 的破壞力 > 建設力

    - 建設語言需要時間

    - 信任需要積累

    - 知識需要沉澱

    - 文明需要共識

但破壞只需一秒鐘的 deepfake、假新聞、虛假敘事。LLM 天生是破壞文明語言層的技術是因為它的語言邏輯不是為文明設計的。


AI 敘事本身就是泡沫,但泡沫並不會減少破壞力

科技巨頭講「AI 改變一切」,但本質仍然是:

    - 商業敘事

    - 投資敘事

    - 地緣政治敘事

所有巨頭都需要 AI 故事推動:

    - 股價

    - 資金

    - 預算

    - 人才吸納

    - 國家戰略正當性

這是敘事現象,而敘事大於現實就是泡沫。但泡沫的危險不在於會破,會在於泡沫會遮住真正的問題。LLM 的破壞正在發生,但所有人都在討論 AGI 願景。語言正在被侵蝕,但大家只在討論能力提升。文明的真實性正在消失,但科技巨頭只關心速度。


真正問題

科技巨頭和 LLM 都不具備治理文明的語氣模型,科技語氣的核心是「效率、擴張、模型化」,而政治語氣的核心是「倫理、共識、制衡」。這是兩種不同文明。它們是互斥,所以結論只有一句:科技巨頭不能治理文明,LLM 不能治理語言,而語言失序會導致文明失序。

科技巨頭的世界是一個「算力最大者勝出」的世界,不是一個「倫理最大者勝出」的世界,而文明能存續是因為價值,不是因為算力。


為下一篇鋪路

科技巨頭不能擁有文明,但誰應該擁有語言主權?

當科技巨頭無法治理文明,LLM 又正在侵蝕文明語言,世界便進入新問題:下一代文明的語言誰來定義?誰擁有語言主權?語言應屬於平台、政府、公眾,還是新的群體?

我認為:

    - 語言是權力

    - 模型即語言

    - 語言即現實

    - 語言主權 = 文明主權

所以下一篇《誰是下一代文明的語言主權者?》將自然展開。