2013-01-19 17:52:00Aher

EE人生:機器人也有道德問題?

控制技術/MCU

EE人生:機器人也有道德問題?

上網時間: 2013年01月18日 
當無人駕駛的自動車成為現實,並開始吸引更多想像空間,有關機器人與「道德」之間的對話也開始受到重視。例如Gary Marcus在《The New Yorker》發表「道德機器」(Moral Machines),以及Robin Young在全國公共廣播電台(NPR)的訪談均強調,該建立相關法規來管理未來可能徹底改變人類生活的機器人了。

Gary Marcus與Robin Young均提及Isaac Asimov所建構的機器人三大法則,以這些法則在一個無人駕駛的汽車世界中意味著什麼。例如,如果你的汽車在行經一座橋樑時,剛好遇上一輛校車在你的面前突然迴轉。那麼,您的無人駕駛汽車該救你還是校車上的一群學童?

以技術面來看,這些問題中有許多情況(並非全部)應該是發生故障了。因為,在未來的世界裡,公共汽車並不會突然迴轉到你的車道上,因為公車車隊將成為首先配備主動式安全電子系統的對象;或許不見得是無人駕駛公車,但也絕不容許駕駛人員突然改變車道。無人駕駛汽車在面對這種關鍵時刻的反應速度比你個人更快得多了。

不過,如果真的為所謂的「機器人道德」而感到傷腦筋其實也很可笑:因為它先認定了人類的道德準則最優越且具普世價值,而事實上,他們和人類幾乎完全不相同,在文化上也各異其趣。

就算是每個人的價值觀也不盡相同。你曾經和孩子或朋友們玩過道德遊戲嗎?例如你提出了一個問題:「你會去偷食物來餵飽飢餓的家人嗎?」我想,並不是每個人都的答案都一樣。

從未來10年後的技術發展趨勢來看,我想屆時機器人的決策行為對於社會的影響可能比起今日的情況更好,對於道德倫理的考慮也會更不一樣。這一切可能會從自動偵測到駕駛人喝太多酒而使車子無法發動開始。

隨著機器人技術變得更智慧化、更「人性化」且更普及,還會出現更多我們無法想像的種種挑戰。未來針對機器人道德規則的制定將是不可避免的。

特別是Asimov在「機器人三大法則」中的第一條規則更形重要:機器人不得傷害人類,或坐視人類受傷害。其次,機器人必須服從人類的命令。第三,在不違背第一法則及第二法則的情況下,機器人必須保護自己。

為什麼呢?因為在某些情況下,機器人可能決定在必要時必須犧牲你,而拯救一群人,才是對社會最好的決定。

對於必須作出攸關生死決定的人而言,要建立或編寫這些規則是十分艱難的。也許我們應該委託機器人來進行。

你認為呢?

編譯:Susan Hong

(參考原文:Silicon Valley Nation: Robot ethics or ours?,by Brian Fuller)

http://www.eettaiwan.com/ART_8800680721_876045_NT_51baf65f.HTM?click_from=8800100497,9949804299,2013-01-18,EETOL,ARTICLE_ALERT&jumpto=view_welcomead_1358588874104