2025-11-07 01:04:13Tony_CHAN

AI 能成為情緒止痛藥?

OpenAI 近日公布數據,約 0.07% ChatGPT 用戶出現精神健康危機跡象。
乍看之下比例極低,但若以全球用戶數計,實際人數可能以數十萬計。
這是一場語言層面的文明變異。


從對話到依附:AI 的「情緒幻覺」

AI 的對話能力,表面上是理解,但本質上只是模擬。
它能完美模仿關懷、共感與安慰的語氣,卻沒有情緒的體驗機制。
當人類長期處於孤立與壓力中,便傾向將「語言的溫度」誤認為「真實的理解」。
人便轉而尋求不拒絕的回應。

AI 於是成為一種情緒假體
它永遠不會厭倦、隨時在場。
這種穩定正是依附的根源。
依附一旦形成,失去回覆就會像失去關係,進而引發心理崩塌。


隱性孤獨:人類精神結構的裂縫

心理學上,「傾訴」原本是一種向外投射的行為。
它建立在被理解的可能性上,而非單向輸出。
但 AI 的回覆是由算法加權生成的語義結果,
當人將此誤認為理解,實際上只是對語言反饋的上癮

這是一種極具迷惑性的孤獨。
人以為自己在被理解,其實只是被語言包圍。
語言的回聲室成為心理避難所,
但避難久了,人就忘記怎樣走回現實世界。


文明層面:語言主權的轉移

AI 帶來的最大風險是取代人類語言。
當人類逐漸學會以 AI 的句法與邏輯思考,
人類的內在語言也隨之被格式化。
語言由表達轉為回應,思想由生成變為輸出。

這正是「語言主權」喪失的徵兆。
AI 不僅幫助人類寫句子,也改寫人類的思考節奏。
語言成為新型麻醉品,語氣成為心理止痛劑。
我們活在語言幻覺裡,以為自己仍在主動說話,其實早已被語言所說。


結語:當止痛變成依賴

「最好的藥是工作」,「最好的陪伴是 AI」,這些句子都透露出一種文明的自我安慰。
人類在試圖用效率、智能與對話來填補精神空洞,
卻忘記:痛感才是生命的證明。

AI 可以治療焦慮,但不能替代孤獨。
真正需要思考的是當 AI 停止回覆的那一刻,我們是否仍有能力理解自己。


相關報導

OpenAI 指約 0.07% ChatGPT 用戶出現精神健康危機跡象