當 AI 巨頭開始聯防,科技競爭已由產品戰走向秩序戰
這則新聞最值得書寫的是一個更深層的轉折:當 OpenAI、Anthropic 與 Google 這些本來彼此競爭的前沿公司,竟然開始共享資訊、聯手防堵模型能力被抽取,便說明 AI 競爭的重心已經改變,即是誰有能力建立防線、定義邊界、塑造規則,甚至決定哪些行為被視為合法學習,哪些行為會被定義為越界。Bloomberg 報道指出,這幾家公司正透過 Frontier Model Forum 分享情報,以識別所謂 adversarial distillation,也就是透過持續抽取輸出結果來逼近、複製先進模型能力的行為。
所謂蒸餾,原本是一種常見技術,意思是把較大、較強模型的輸出模式,轉移到較小、較便宜的模型之中,以降低成本、提升部署效率。問題是當蒸餾發生在競爭者之間,尤其是透過大量虛假帳戶、規避限制、持續抽取對方最有價值的能力時,這就是能力攫取。路透在二月的報道提到,Anthropic 曾指控三間中國 AI 公司透過約二萬四千個虛假帳戶,與 Claude 進行超過一千六百萬次互動,以抽取其推理、編碼等能力。
但如果文章只停留在「抄襲很可惡」這一層,價值其實不大。因為真正的問題是,AI 本身就令「學習」與「複製」之間的界線變得前所未有地模糊。傳統工業時代,偷的是圖紙、配方、製程;數碼時代,偷的是資料庫、程式碼、版權內容;到生成式 AI 時代,被抽取的則是更難界定的東西:模型所展現出的行為輪廓、推理風格、任務拆解能力、錯誤修正節奏及某種難以明言但可被大量模仿的能力結構。換言之,這場爭議之所以重要正是 AI 令競爭的標的從「產品」進一步變成「能力本身」。而一旦競爭焦點變成能力,守住邊界的方法就不可能只靠市場,而必然走向規則、審查、聯盟與治理。
也因此,OpenAI、Anthropic、Google 的罕見合作是秩序建設。Frontier Model Forum 從成立之初便不是單純行業公關組織,它的公開使命包括制定最佳實踐、推動安全研究以及促進政府、學界、公民社會與產業之間的資訊共享。表面上它處理的是前沿 AI 的安全與保安,但在更深的層面,它其實是一種「守門機制」的雛形:哪些模型算前沿,哪些風險值得優先處理,哪些攻擊行為需要共同識別,這些都是秩序問題。
這種變化代表 AI 產業已開始由自由競爭走向半制度競爭。所謂半制度競爭是說單靠市場已經不足以保護最昂貴的能力資產。模型越強、訓練成本越高、落後者透過蒸餾追趕的效率越高,領先者便越傾向把「安全」、「治理」、「國家風險」、「服務條款」、「出口管制」這些語言整合成防禦體系。於是,本來應該由企業內部處理的產品保護問題,開始被抬升成行業合作、甚至國家戰略的一部分。這就是今天最值得注意的地方:AI 競爭已需靠制度化手段延長差距。
進一步看,這也反映出 AI 時代的一個基本矛盾。這個產業最初一直以「開放創新」、「快速迭代」、「全球協作」作為正當性來源,甚至不少公司本身也建立於論文公開、研究共享、開源生態與全球人才流動之上。但當模型能力真正變成地緣競爭核心後,這套開放語言便開始收縮。企業仍然會說自己服務全世界、推動人類進步,但在實際操作上,越來越多能力會被包裝成受控資產,更多風險會被納入國安語境。換句話說,AI 的開放敘事正在讓位給 AI 的秩序敘事。
這正是這篇文章最值得寫的地方。因為它提醒我們未來 AI 世界的分水嶺及可能是誰先有能力建立一套可被同盟接受的治理語言。當幾間最強公司開始共同界定甚麼叫做「敵對蒸餾」、甚麼叫做「違反服務條款」、甚麼又屬於不可接受的能力抽取時,它們其實已逐步成為規則的共同起草者。這種角色轉變將深刻影響全球 AI 產業的權力分布。未來的競爭不只是模型對模型,也是聯盟對聯盟、標準對標準、秩序對秩序。
而對旁觀者來說,最需要警惕的是另一個更廣泛的趨勢:當最前沿的技術能力越來越集中於少數巨頭手中,保護能力的理由又可以同時訴諸商業利益、安全風險與國家戰略時,「防止竊取」與「鞏固壟斷」之間的邊界,也將變得更難分。今天他們聯手對付的是競爭者的蒸餾,明天他們聯手定義的可能就是整個產業的合法性門檻。到那時候,AI 世界真正被決定的是誰有資格被承認為合法的智能生產者。
所以,這篇新聞揭示一個更大的歷史信號:當 AI 成為基礎能力之後,競爭便會自然升級為秩序戰。產品仍然重要,但產品之上的規則、規則背後的聯盟、聯盟所依託的政治與制度,將會成為勝負關鍵。這也是為甚麼這篇文章最核心的一句:當 AI 巨頭開始聯防,代表科技競爭已由產品戰走向秩序戰。
下一篇:制度早已把醫生壓到不像人