暴力如何被 AI 優化?
近日南韓一宗案件引起廣泛討論。一名二十二歲女子被控在首爾汽車旅館一帶,向三名二十多歲男子提供摻有苯二氮平類藥物的飲品,造成兩人死亡、一人失去意識。警方表示,嫌疑人在犯案前曾多次向 ChatGPT 詢問「安眠藥與酒同服會如何」、「多少劑量會危險」、「會不會致死」等問題;警方亦指出,她在第一次犯案後,因受害人恢復意識,之後還提高了藥量,並據此把原先較低層級的指控改為謀殺。
這宗案件最值得分析之處是它揭示一個更深層的轉變:AI 未必創造暴力動機,但它能把原本混亂、衝動、帶有偶然性的惡意,整理成可試算、可修正、可複製的行動路徑。從警方披露的搜尋內容來看,嫌疑人是沿着一條明確的決策鏈前進:先確認藥物與酒精的交互風險,再判斷危險閾值,最後把這些資訊帶回現實行動中修正劑量。這種模式已是把暴力轉化為一種優化問題。
換言之,AI 在這裡扮演的角色,更接近一個行為優化器。工具通常只是延伸人的手,例如刀可以砍、車可以走;但生成式 AI 延伸的是人的推演能力、資訊整合能力與方案比較能力。它參與從模糊意圖到具體步驟的中間地帶。正因如此,當一個人心中已有傷害他人的意圖,AI 提供的價值是把原本低解析度的惡念,壓縮成較高可執行度的方案。這也是為何同樣是惡意,在 AI 時代與在前 AI 時代,其風險結構並不相同。
以前一個人若想行兇,很多時受制於知識不足、判斷錯誤、臨場慌亂與後果不明。這些不確定性,某程度上會抑制行動,因為人會怕失手、怕出錯、怕無法收場。但 AI 的出現正在逐步移除這些摩擦。它讓人可以用自然語言持續追問,把原本需要自己搜索、比對、篩選的大量資訊,快速收束成具方向性的答案。即使系統本身設有安全限制,只要提問方式停留在「風險評估」或「後果查詢」的表面,它依然可能在客觀上協助使用者建立行動模型。這宗案件裡,警方正是把這些 AI 對話紀錄視為預見可能性與主觀故意的重要證據。
更值得注意的是,案件顯示暴力在 AI 條件下會從情緒性行為轉向系統工程。所謂情緒性行為,往往是當下爆發、不可持續、難以校正;系統工程則不同,它容許試誤、回饋與迭代。警方指嫌疑人在第一次犯案後,見受害人恢復意識,之後便增加藥量。這個細節很關鍵,因為它顯示暴力納入了「結果不符預期後如何調整參數」的邏輯。當犯罪開始具有這種回饋機制,它就更像一套小型實驗系統,而不只是一時衝動。
這也是為甚麼討論 AI 風險時,只說「技術中立」其實不夠。技術當然不等於動機來源,但技術會改變動機被實現的成本結構。過去很多危險念頭停留在幻想層面是因為從念頭到實行之間有太多障礙。AI 削弱的正是這些障礙。它降低資訊搜尋成本,縮短試探時間,提升行動者對風險與效果的把握感。於是同一個惡念,在新技術環境中就可能擁有更高的落地率。從這個角度看,AI 把人類本來已有的黑暗面變得更有效率。
這裡還牽涉一個現代社會常被忽略的問題:我們太習慣把一切都理解為可優化流程。商業講轉化率,平台講留存率,管理講效率,個人生活講自我提升。當整個文明都在訓練人以「輸入 - 分析 - 輸出 - 修正」的方式處理世界時,這種思維本身不會自動區分善惡。它可以用來改善產品,也可以用來優化傷害。AI 之所以令人不安是因為它完美契合了這種流程化文明。它使人更容易把任何目的,包括暴力,都轉譯為一連串待解決的操作問題。
所以這宗案件真正敲響的警號是暴力的認知形態正在改變。當暴力獲得搜尋、模擬、校正與迭代的能力,它便從原始衝動進入半技術化狀態。社會若仍以舊有方式理解犯罪,只着眼於犯案當下,而忽略前期的資訊建模、風險試探與參數調整,便會低估 AI 時代的危險。未來許多案件的關鍵是行為者是否曾利用 AI 把模糊惡念整理成可執行方案。這可能正是新的犯罪前奏。
最終要面對的現實是:AI 不會替人決定要不要作惡,但它會令作惡者更像一個有分析助手的人。人類一直以為真正可怕的是更強大的武器,然而在生成式 AI 時代,更可怕的也許是另一種東西︰一個能把意圖轉換成步驟、把模糊變成清晰、把失敗變成可修正數據的系統。當暴力也能被這樣處理,我們面對的就不只是犯罪問題,而是整個文明的優化邏輯,已經開始滲入人性最黑暗的區域。