2023-05-12 10:00:00天光

【從中捷意外反思AI、科學、人】

【從中捷意外反思AI、科學、人】
 
南無阿彌陀佛!
 
替台中捷運意外的死傷者哀悼!
 
此事有很多人在檢討事故成因及責任。
 
本人在此只想提醒一個根本性的哲學原理:「過度迷信風險可控,而對風險撤防,可能招致不可逆料的重大毀滅!」
 
以本次案例來說,我們不應只注意到中捷的AI自動駕駛軟體是否具有設計漏洞。而是應該拉高層次,反思到這一觀點:「AI無人自動駕駛的安全性,被人類社會過度高估!」
  
非軌道的自動駕駛AI,目前技術最先進的特斯拉,仍三不五時傳出「專家未發現或難以解釋的系統失靈」造成的安全事故。
 
而軌道系統的自動駕駛AI,想像中應該比非軌道的汽車單純很多,不用應付千奇百怪的柏油水泥路況及四面八方的車況。
  
然而,中捷本次意外,證明了「風險型態往往超出系統設計者的想像範圍」!
 
回顧日本311大地震及海嘯,引起的福島核災,也證明「人類既有科學對地震可能的強度及機率過於低估」。以此種低估風險強度與機率的認知而設計建造的核電廠,實際上遠比核安科學家想像得更脆弱。
 
在福島核災之前,前蘇聯的車諾堡核災,其實也是犯了類似的「因對科技過度自信,而低估風險」的錯誤。
 
根據此原理,再回頭看今日人類自以為可以透過科學或邏輯理性充分掌握的各種風險機率,實際上恐怕沒那麼樂觀。
 
科學或邏輯理性對於風險機率的認知,永遠有進步的空間,這意思也就是說,今日的科學或知識所做出的許多風險評估,實際上可能並不如人們想像的那樣精確。長遠來看,我們永遠可以合理懷疑風險被低估。
 
根據此種觀點,我們可以清楚發現「讓AI越來越像人類般擁有情感,卻賦予AI遠超過人類的智能」這件事情的危險程度,顯然已經徹底失控。
  
它甚至比進行複製人的基因工程實驗對未來人類社會的衝擊更大!
 
同理,許多人類正在玩火卻自以為可以充分掌控的事情,例如,近年來中共的「砍樹造田」及巴西對熱帶雨林的濫墾;或是歐美民主國家極端左派人士鼓吹無上限的性解放自由縱慾,與鼓吹毒品除罪化;甚至是台灣內部某些愚民的所謂「反戰人士」鼓吹台灣自我解除武裝或共諜除罪化...等等,簡直都是不知死活! 
 
這些過於天真托大的主張,由於對危機撤下防備,導致危機更容易發生,而且一旦發生危機,後果就是徹底毀滅!
 
想要避免這樣的問題,人類必須重新反思「人與科技的關係」。
 
「人不應無止境加強對科技的依賴,也不應一味信任科技而對風險撤防。」
 
人類也不應該誤以為科學能解答所有問題,或提供的解決方案必然正確或最佳。
 
事實上,科學永遠不可能解答所有問題,也永遠不是完美解決方案。
 
「人」之所以人,本質上,永遠有超越科技的獨特價值及獨特能力。
 
無論科學發展至何種程度,人類永遠不該放棄這樣的獨特能力,也永遠不該低估這樣的獨特價值。
 
2023-05-11 FB


  

圖片來源:中央社網站