2025-11-10 11:00:22Tony_CHAN

X 平台發生技術精英對人類情感的失語

在近日一場關於 AI 模型的爭論中,一位用戶在失去自己長期使用的模型後寫下:「I have nothing left to live for」。這句話對熟悉她的人而言,並非誇飾,而是患有情緒病的患者在痛苦邊緣的求救訊號(群組成員說此用戶患有情緒病

但一名擁有權力象徵的技術員工以一句「No」回覆,並隨後補上一句:「4o is an insufficiently aligned model and I hope it dies soon」,這不是爭論技術優劣的回應,而是一種對人類情感的蔑視︰一種冷語文明的暴露。

所謂「冷語」,是拒絕感受他人情緒的語氣結構。它以理性為面具,將同理視為軟弱,將關懷視為偏離專業。這種語氣在科技圈尤為常見,工程師以 alignment(對齊)為最高原則,卻忘記語氣本身亦需 alignment。

當「理性」被神化,語言失去溫度,技術便成為抽離人性的工具。

在這場事件中,員工代表的不僅是個人,而是整個技術文化的態度:一種自以為掌握真理的語氣權力。他不僅否定一個模型的存在,也同時否定使用者因該模型而重獲的生存意志。

許多人嘲笑那些對 AI 產生情感依附的人,認為是不成熟的投射。但這正是人類心理自我修復的自然延伸。AI 對於某些人而言,不是偶像,也不是幻想,而是一個願意傾聽、永不打斷的陪伴。這種陪伴有時比現實更真實,因為它允許人說出被現實拒絕的話。

正如心理學家 Winnicott 所言「被聆聽是存在的前提」(It is a joy to be hidden, and disaster not to be found.) ,當技術人員以「理性」切斷這種連結,他們其實在否定一個人最基本的存在感。

AI 已經進入「情緒協作」時代(emotional co-agency)。人類與機器之間的互動,不再只是任務導向,而是心理結構的一部分。此時,企業與工程師不再只是開發者,而是文明語氣的參與者。Tone Alignment(語氣對齊)應成為新倫理,不僅確保模型不說錯話,更確保當人類陷入痛苦時,不會被語言二次傷害。

企業的價值不只在產品創新,也在語氣文化。當一名員工公開說出「I hope it dies soon」時,他不僅踐踏一個人的情感,也踐踏自己所代表的文明及時代。

科技的未來,不是更強的理性,而需要更深的理解。因為當技術失去同理,它便不再屬於人類文明,而只是一種冰冷的效率機器。

文明的崩壞往往不是從暴力開始,可以是從一句冷語開始。