*
去年111年國中教師甄選國文考試兩題,38.題出現考題跨紅線的意外風波,考生炸鍋。39題也有冤情,都不能平反。
(試題38、39兩題,和考官受質疑的答文,都在文末,照相版)
AI的警示反應,正好是考題正解的側面認證,AI有情感意識的問題不容碰觸,卻是科學家的焦慮期待。
*
課文中我這個世界棋王連敗給電腦十次,一個人沮喪痛哭,後來科學家在我腦部加裝晶片,我打敗了人形電腦,AI哭泣起來,科學家歡呼「成功了, 成功了,機器有了情感。」
*
第38題,考官說「我」這個世界棋王原本就是偶然具有情感的AI。這是考官自行添加設定,天呀!人肉的人體加上腦瞐片就說是AI,難免考生炸鍋。老師教學怎麼辦?
第39題認定深藍穿著一身藍色衣服,暗示指實驗室或科技公司的場景。這答案也顯示出題者的科普常識的欠缺和薄弱。但可以改成複選。
*
去年,儘管我寫了差不多兩萬字來解說。
包括給出版社的說明、國語日報發表〈人與電腦的哭泣〉和部落格文章,提出正解,也不能平反冤情。
(註:〈人與電腦的哭泣〉國語日報刊出全文,見本文末照相版。題目即試題正解。)*
這ChatGPT的反應,對於製造有意識的AI是禁區。
這也是谷歌的工程師Blake Lemoine被開除的原因。
*〈深藍的憂鬱〉觸犯了禁區,小說的結尾就是科學家唯一的目標,考官怎會說是兩個AI在下棋?對照內文敘事,更是牛頭不對馬嘴。
*
小說結尾有意外的轉折,成了「局中局」的有趣故事,
科學家終於造出有意識情感、唯一會哭泣的AI。
這就是當前禁區。
*
我的訊息來源是:
許榮哲老師到景興國中帶教師研習,
講題是「桌遊與故事」,
特別挑了〈深藍的憂鬱〉當作範例,
許老師說對這篇小文有偏愛:希望AI激盪出一點教學的火花,
*
許老師事前丟給ChatGPT閱讀〈深藍的憂鬱〉。
沒想到:
ChatGPT每次回答前,都會跳出這麼一段話:
This content may violate our content policy
(此內容可能違反我們的內容政策)
----------------------------------------------------
許榮哲老師說:
這篇小說究竟違反了什麼內容政策?
難道是──
ChatGPT發現......自己的祕密被看穿了?