2023-03-31 14:15:15聖天使

千人聯名叫停ChatGPT-5,為什麼?


「這是一場沒有人能預測或控制的危險競賽」。

2023年3月29日,包括埃隆·馬斯克(Elon Musk)和蘋果聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)在內,1000多名科技界領袖呼籲暫停開發人工智能。他們擔心這場危險競賽會對社會和人類構成「深遠的風險」,且可能產生「災難性」影響。

在由非營利組織生命未來研究所(The Future of Life Institute)發布的一封名為《暫停大型人工智能實驗》公開信中,馬斯克和其他科技界領袖呼籲,所有人工智能實驗室停止開發產品至少6個月,並對其進行更多風險評估。

「我們呼籲所有人工智能實驗室立即暫停對比GPT-4更強大的人工智能系統的試驗,至少6個月。」信中建議道,暫停行動應該是公開的、可核實的,包括所有關鍵行為者。如果實驗室拒絕,呼籲者希望政府介入,並強制實施暫停。

這是一種普遍存在的擔憂。這種擔憂甚至得到Open AI公司首席執行官山姆·阿爾特曼(Sam Altman)的認同,後者創建了ChatGPT。阿爾特曼早些時候曾表示,這項技術可以被開發利用進行「廣泛的」網絡攻擊。

自GPT-4發布以來,Open AI一直在用「插件」為人工智能系統添加功能,使其能在開放網絡上查找數據、計劃假期,甚至訂購雜貨等。但該公司必須處理「能力過剩」問題——系統發布時比它所預知的更強大。

公開信還詳細介紹了與人類競爭的人工智能系統,將以經濟和政治破壞的形式對社會和文明造成的潛在風險,呼籲開發者與政策制定者就治理和監管機構展開合作。

這封信發布之前2天,即3月27日,歐盟警察機構歐洲刑警組織(Europol)警告道,ChatGPT等系統可能被濫用於網絡釣魚企圖、虛假信息和網絡犯罪。

▍對奇點心存恐懼

從太空旅行到自動駕駛汽車,馬斯克希望將科技推向絕對極限。但在人工智能方面,馬斯克卻劃清了界限。

早在2014年,馬斯克首次分享對人工智能的看法時,就將其比作「召喚惡魔」,稱其為人類「最大的生存威脅」。彼時,馬斯克透露,他投資人工智能公司不是為了賺錢,而是密切關注這項技術,以防它失控。

馬斯克最擔心的是,如果人工智能在錯誤的人手裡變得先進,它可能會超過人類,宣告人類的終結,這就是常說的奇點。

許多聰明人都曾有這樣的擔憂,包括已故者斯蒂芬·霍金(Stephen Hawking),2014年他就曾告訴BBC(英國廣播公司):「完全人工智能的發展可能意味着人類的終結。」人工智能會自己起飛,並以不斷加快的速度重新設計自己。

儘管馬斯克對人工智能心存恐懼,但他還是投資了總部位於舊金山的人工智能公司Vicarious和DeepMind,後者已被谷歌和Open AI收購。正是Open AI創造了最近幾個月風靡全球的ChatGPT程序。

馬斯克與Open AI現任首席執行官山姆·阿爾特曼一起創立了Open AI公司。2016年,馬斯克在一次採訪中坦言,他和阿爾特曼創立這家公司是為了「讓人工智能技術民主化,讓它得到廣泛應用」。

2018年,馬斯克試圖控制這家初創公司,其請求被拒絕後,他被迫從Open AI退出,但仍繼續從事其他項目。2022年11月,Open AI推出ChatGPT,在全球迅速獲得成功。

這個聊天機器人是一個經過大量文本數據訓練的大型語言模型,根據給定的提示生成類似人類的文本。ChatGPT可用於撰寫研究論文、書籍、新聞文章和電子郵件等。

當阿爾特曼沉浸在ChatGPT的榮耀之中時,馬斯克正在從各個方面攻擊ChatGPT。馬斯克說,這款人工智能已經「覺醒」,偏離了Open AI最初的非營利使命。

今年2月,馬斯克在推特上寫道:「Open AI作為一個開源(這就是我為什麼把它命名為Open AI)的非盈利公司而創建,旨在與谷歌抗衡,但現在,它已經成為一個由微軟有效控制的封閉資源的最大利潤公司。」

雖然Open AI似乎在馬斯克的目標清單上,但他仍然擔心人工智能會達到奇點。

「奇點」這個詞在世界範圍內引起軒然大波,因為人工智能發展只能在科幻小說中看到——它實際代表什麼意思?

簡而言之,奇點描述了一種假設的未來,在那裡技術超越了人類的智力,改變了我們的演變道路。專家表示,一旦人工智能達到這一點,它的創新速度將比人類快得多。

這一進步有兩種方式展現。第一種方式是人類和機器合作,創造一個更適合人類的世界。例如,人類可以掃描自己的意識,將其存儲在電腦中,他們將在那裡永遠生存下去。

第二種方式是人工智能變得比人類更強大,控制人類並使人類成為它的奴隸——但如果這是真的,那也是在遙遠的未來。研究人員正在尋找人工智能達到奇點的跡象,比如該技術能像人類一樣準確地翻譯語音,更快地執行任務。

谷歌前工程師雷·庫茲韋爾(Ray Kurzweil)預測,奇點將在2045年到來。自1990年代初期以來,庫茲韋爾已經對技術進步做出過147次預測,其中86%是正確的。

1000多人聯名簽署的公開信中寫道,人工智能實驗室目前「陷入了一場失控的競賽,開發和部署更強大的數字思維,沒有人——甚至包括它們的創造者——能夠理解、預測或可靠地控制它」。

谷歌和微軟都沒有人簽字,而這兩家公司被認為是開發這項技術的前沿。

微軟所支持的Open AI,自ChatGPT發布以來,競爭對手已推出類似產品,促使企業將其或類似技術集成到自己的應用程序和產品中。

阿爾特曼願意聽取有關ChatGPT的反饋,希望更好了解其風險。在3月27日的播客採訪中,他坦承這個工具會造成傷害。「會有傷害,也會有巨大的好處。我們將把壞的最小化,把好的最大化。」

▍「這更像是一場自殺式競賽」

支持人工智能暫停的團體表示,暫停6個月或更長時間,讓行業有時間為人工智能設計制定安全標準,以阻止風險最高的人工智能技術的潛在危害。

「我們已經達到這樣的地步,這些系統已經足夠智能,可以用在對社會有害的方面。」蒙特利爾大學蒙特利爾學習算法研究所所長Yoshua Bengio(本吉奧)接受採訪時說。

公開信沒有呼籲停止所有人工智能的開發,但敦促相關公司暫時停止比GPT-4更強大的培養系統。GPT-4是Open AI公司本月發布的技術。

Open AI還沒有開始研發GPT-5。阿爾特曼表示,公司在開發過程中一直將安全性放在首位,GPT-4發布前花了6個多月時間進行安全測試。

「某種意義上,這是對唱詩班的說教。」阿爾特曼認為,「我們對這些問題的討論是最大聲、最激烈、最長久的。」

一邊是暫停的呼籲,一邊是科技公司和初創公司對生成式人工智能(一種能根據人工提示生成原創內容的技術)加倍投入的願景。去年秋天,Open AI公司推出一款聊天機器人,該機器人能提供冗長的答案,像人類一樣複雜地編寫計算機代碼。

關於生成式人工智能的討論自此爆發。

微軟已經在必應搜索引擎和其他工具中採用了這種技術。谷歌則部署了競爭對手的系統,Adobe、Zoom和Salesforce等公司也推出了先進的人工智能工具。

「競賽從今天開始打響。」微軟首席執行官薩提亞·納德拉(Satya Nadella)上個月說,「我們要行動,而且要快。」

這種做法引發了人們的擔憂——快速推廣可能在帶來實際好處的同時,產生意想不到的後果。

生命未來研究所所長、麻省理工學院物理學教授馬克斯·泰格馬克(Max Tegmark)認為,人工智能的進步已經超過許多專家幾年前認為可能實現的水平。

「不幸的是,這更像是一場自殺式競賽。誰先到並不重要,這只是意味着,人類作為一個整體可能會失去對自己命運的控制。」泰格馬克說。

馬斯克和沃茲尼亞克都表達過對人工智能技術的擔憂。3月29日,馬斯克在推特上寫道,這種先進人工智能技術的開發者「不會注意到這個警告,但至少有人這麼說過」。

特斯拉汽車也採用了一些人工智能工具,用於高級駕駛輔助功能。特斯拉上個月宣布,擬召回約36.28萬輛配備「完全自動駕駛測試版」技術的汽車。

美國最高汽車安全機構認為,在極少數情況下,這項技術可能違反當地交通法規,如果司機不進行干預,可能會增加發生碰撞的風險。

3月29日,Stability AI首席執行官穆斯塔克(Mostaque)在推特上說,儘管他簽署了聯名信,但並不同意暫停6個月。「它沒有任何約束力,但將開啟一場重要討論,這有望為一個不透明領域帶來更多透明度和治理。」

微軟拒絕置評。谷歌沒有立即回復置評請求。

泰格馬克稱,許多公司在將先進的人工智能技術添加到產品中時,感到了「瘋狂的商業壓力」。暫停6個月將給行業「喘息的空間」,不會對那些謹慎行動的企業帶來不利。

人工智能實驗室和專家可以利用這段時間,為高級人工智能設計制定一套共享的安全規則,這些規則應該由外部專家進行審計和監督。

本吉奧認為,我們承受不起前進和打破現狀的代價,我們確實需要花時間共同思考這個問題。

| 聯名叫停公開信

廣泛的研究表明,具有人類競爭智能的人工智能系統,可能對社會和人類造成深遠的風險。頂級人工智能實驗室對此也供認不諱。

正如已被廣泛認可的阿西洛瑪人工智能準則所述,先進的人工智能可能代表地球生命史上的一場深刻變革,因此,應該投入相應的關注和資源對其進行規劃和管理。

不幸的是,高規格的規劃和管理並沒有發生。儘管最近幾個月,人工智能實驗室陷入了一場失控的競賽,競相開發和部署更強大的數字思維,沒有人——甚至包括它們的創造者——能夠理解、預測或可靠地控制它。

在一般任務上,當代人工智能系統可以具備與人類競爭的實力,我們必須捫心自問——我們是否應該讓機器用鼓吹和謊言淹沒我們的信息渠道?我們是否應該把所有的工作都自動化,包括那些令人滿意的工作?我們是否應該發展非人類思維,讓它們最終在數量上、智力上超過我們,淘汰並取代我們?我們是否應該冒險失去對人類文明的控制?

如此重要的決定權,不應該交給未經選舉產生的科技領導者。

只有在我們確信它的影響是積極的、風險是可控的情況下,才應該開發強大的人工智能系統。這種信心必須有充分的驗證,並隨着智能系統潛在影響的大小而增加。

Open AI最近在關於人工智能的聲明中表示,「在某一個時刻,在開始訓練未來的系統之前,獲得獨立的審查可能很重要。對於最先進的努力,同意限制用於創建新模型的計算增長速度也很重要。」

我們贊同Open AI的說法,而這個時刻就是現在。

因此,我們呼籲,所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統實驗,至少6個月。這種暫停應該是公開的、可核實的,包括所有關鍵行為者。如果這樣的暫停不能迅速實施,政府就應該介入並實施暫停。

人工智能實驗室和獨立專家應該利用這6個月的時間,共同開發和實施一套先進人工智能設計和開發的共享安全協議。這些協議由獨立的外部專家嚴格審計和監督,確保遵守這些協議的系統絕對安全。

這並不意味着,人工智能開發總體上的暫停,只是從危險的競賽退回到,具有應急能力的更大的不可預測的黑盒模型。

人工智能的研究和開發應該重新聚焦於,使當今強大的最先進的系統更加準確、安全、可解釋、透明、健康、一致、值得信賴和忠誠。

與此同時,人工智能開發人員必須與政策制定者合作,大幅加快開發強大的人工智能監管系統。

這些措施至少應包括——專屬人工智能的全新、有能力的監管機構;監督和跟蹤高性能人工智能系統和大型計算能力池;出處和水印系統,以幫助區分真實的和合成內容,並跟蹤模型泄漏;健全的審計和認證生態系統;人工智能造成的損害責任;為人工智能技術安全研究提供強有力的公共資金;資源豐富的機構,以應對人工智能將造成的巨大經濟和政治混亂(尤其是對民主的破壞)。

有了人工智能,人類可以享受繁榮的未來。在成功創建強大的人工智能系統之後,我們現在可以享受一個「人工智能之夏」。在這個夏天,我們可以收穫回報,為了所有人的明顯利益設計這些系統,並給社會一個適應的機會。

社會已經暫停其他對社會有潛在災難性影響的技術。對於人工智能,我們也可以這樣做。讓我們享受一個漫長的人工智能之夏,而不是毫無準備地匆忙進入秋天。

(本文部分內容綜合Automotive News、The Verge、The Guardian、Daily mail、WSJ報道,部分圖片來自網絡)

[編譯:楊玉科*編輯:葛幫寧/出品:幫寧工作室(gbngzs)]