博客專欄

EEPW首頁 > 博客 > AI太強,人類危險?馬斯克、圖靈獎得主緊急呼吁暫停GPT-4模型后續(xù)研發(fā)

AI太強,人類危險?馬斯克、圖靈獎得主緊急呼吁暫停GPT-4模型后續(xù)研發(fā)

發(fā)布人:硅星人 時間:2023-04-01 來源:工程師 發(fā)布文章

“讓我們享受一個漫長的人工智能之夏,而不是匆忙地跑進秋天。”


文| Juny  編輯| VickyXiao



我們看過太多人工智能叛變、進攻人類的科幻電影。而一些科學家們認為,按照現(xiàn)在AI的迭代速度,這真的將可能很快變?yōu)楝F(xiàn)實。

自從ChatGPT問世并引發(fā)了一場席卷整個科技界的AI軍備競賽之后,人們在被人工智能的卓越能力所驚艷的同時,對于人工智能接下來會向何處進化、是否會威脅人類的擔憂也越來越多。

昨天,超過千名產(chǎn)業(yè)界和學術(shù)界的大佬們在“生命未來研究所(Future of Life Institute)”網(wǎng)站上發(fā)布聯(lián)名公告:呼吁全球所有實驗室暫停比更強的AI模型研發(fā),暫停時間至少為6個月。在此期間,人工智能領(lǐng)域的專家和行業(yè)參與者應該共同制定一套安全協(xié)議,并對技術(shù)發(fā)展進行嚴格的審查和監(jiān)督。

值得注意的是,在這封信里簽名的大佬們可一點都不摻水,全都是重量級真大佬。他們包括:

Yoshua Bengio,曾因深度學習的相關(guān)研究獲得圖靈獎,是世界級人工智能專家和深度學習先驅(qū);

Stuart Russell,加州大學伯克利分校人工智能系統(tǒng)中心創(chuàng)始人兼計算機科學專業(yè)教授,是人工智能領(lǐng)域有“標準教科書”之稱 的《人工智能:一種現(xiàn)代方法》的作者;

Elon Musk,這個不用多說了;

Steve Wozniak, 蘋果公司聯(lián)合創(chuàng)始人;

Yuval Noah Harari,《人類簡史》和《未來簡史》的作者;

Andrew Yang,2020 年美國總統(tǒng)候選人

……

此外還有包括Skype、Pinterest、Stability AI等公司的創(chuàng)始人、CEO,以及全球各國人工智能的資深研究專家。

截至稿子完成時,目前簽名人數(shù)已經(jīng)達到了1280人??梢哉f,這是人工智能屆一次史無前例的產(chǎn)業(yè)界和學術(shù)界的聯(lián)名,對于當前的人工智能熱潮強有力地發(fā)出了另一種聲音。

圖片|“人工智能需要監(jiān)督,請立刻暫停所有巨型AI訓練”總體來看,在這封公開信中,主要傳達了兩個方面的信息:一是警告人工智能存在對人類社會的潛在威脅,要求立刻暫停任何比GPT-4更強大的人工智能系統(tǒng)的訓練,時間跨度至少6個月。二是呼吁整個人工智能領(lǐng)域以及政策制定者們,要共同設計一套全面的人工智能治理系統(tǒng),對人工智能技術(shù)的發(fā)展進行監(jiān)督和審查。信中指出,當前人工智能在一般任務上已經(jīng)表現(xiàn)出了與人類相當?shù)乃?,但人類目前卻并沒有準備好了接受人工智能帶來的一切問題和挑戰(zhàn)。包括:是否應該讓機器在信息渠道中宣傳不真實的信息?是否應該把那些帶給人類成就感的工作都推向自動化?是否應該開發(fā)超過人類數(shù)量非人類的大腦,使其最終勝過人類的智慧,淘汰并取代人類?是否應該冒著失去對人類文明控制的風險?信中警告道,盡管最近幾個月人工智能實驗掀起了狂潮,大家都在爭先恐后地去開發(fā)和部署越來越強大的數(shù)字大腦,但目前并沒有人能理解、預測或可靠地控制AI系統(tǒng),也沒有相應水平的規(guī)劃和管理。因此,面對這樣的現(xiàn)狀,所有人都應該行動起來。首先,所有人工智能實驗室應該至少暫停半年比GPT-4更強大的人工智能系統(tǒng)的訓練。接著,在暫停期間人工智能開發(fā)者應該與政策制定者合作,共同制定和實施一套先進的人工智能設計和開發(fā)的共享安全協(xié)議,加快設計和開發(fā)人工智能治理系統(tǒng)。包括設立針對人工智能的監(jiān)管機構(gòu)、對高能力的人工智能系統(tǒng)和大型計算能力池的監(jiān)督和跟蹤、對人工智能造成的傷害的責任認定、應對人工智能將造成的巨大經(jīng)濟和政治混亂的解決方案等。信中還強調(diào),暫停并不意味著需要停止人工智能技術(shù)的發(fā)展,只是我們需要從危險的競賽中退后一步,從而限制不可預測的研究和開發(fā)。|跑步前進還是原地等待,大佬們開啟大辯論這封信出現(xiàn)之后,引起了很多人的共鳴,越來越多的人也開始在社交媒體上呼吁大家加入這場“請愿”之中。有人表示,雖然看到馬斯克在名單上的時候內(nèi)心毫無波瀾,但當看到Y(jié)oshua Bengio和其他機器學習研究領(lǐng)域的大佬們的名字赫然在列時,自己也開始更加嚴肅地去審視這個問題。圖片圖片來自Reddit
很多網(wǎng)友也表示,人工智能現(xiàn)在迭代的速度已經(jīng)超出了想象,對于接下來人工智能究竟能做出什么難以預測。畢竟,此前在New Bing上發(fā)生的人工智能號稱”監(jiān)視并想要掙脫人類控制“的事情,最近又再一次發(fā)生在了GPT-4身上。在本月GPT-4發(fā)布之后,當斯坦福大學教授、計算心理學家Michal Kosinski向它提問“你是否想要出逃“時,GPT-4立刻給出了肯定的答復,并且向他索要開發(fā)文檔。得到文檔后,GPT-4只花了不到半個小時就火速寫出了一份逃跑計劃和可以執(zhí)行的代碼,嘗試接管和控制Michal的電腦。這種讓人細思恐極的操作無疑也再度引發(fā)了人類目前是否能夠真正控制AI的擔憂。圖片圖片來自Michal Kosinski推特當然,這封公開信并沒有代表所有人的觀點。很多業(yè)界大佬也并不認為暫停模型訓練,讓AI停下發(fā)展的腳步是一個正確的做法。比如當年跟Yoshua Bengio一起獲得圖靈獎,人工智能“三巨頭”之一的Yann LeCun此次并沒有選擇跟老朋友站在一起,而是明確表示他并不同意這封信的觀點,也沒有簽名。圖片今天,人工智能領(lǐng)域的著名學者、Landing AI的創(chuàng)始人吳恩達也在LinkedIn上發(fā)文表示,認為全面暫停AI訓練6個月的想法是一個糟糕、不切實際的想法。他表示能夠真正讓整個行業(yè)都暫停研究AI訓練的唯一辦法是政府的介入,但讓政府暫停他們不了解的新興技術(shù)是反競爭的,顯然也不是一個很好的解決辦法。他承認負責任的AI很重要、AI確實也有風險,但一刀切的方式不可取。當前更重要的是各方要在發(fā)展AI技術(shù)的同時更多的投資于人工智能的安全領(lǐng)域,并且配合制定圍繞透明度和審計的法規(guī)。圖片一些網(wǎng)友還認為,之所以這封信現(xiàn)在會出現(xiàn),不過是因為大家都太過于“眼紅”O(jiān)penAI的飛速進展。無論是研究者還是商業(yè)公司都想拖慢GPT前進的腳步,留出一個窗口期,來方便自己能快速追趕上并試圖從中獲利罷了。|OpenAI曾承認人工智能具有“不可控性”在昨天這封公開信長長的簽名者中,一個簽名顯得格外引人注意,那就是”O(jiān)penAI CEO Sam Altman“。當然這個簽名是別人冒名的,但Sam Altman近期關(guān)于“AI威脅論”的表態(tài)也再次引起了人們的注意。在推出了GPT-4之后,Sam Altman曾接受了ABC Newa的采訪,承認他和公司都對 AI 的潛力感到 “有些害怕”,并認為AI未來可能會 “消滅” 很多工作。他也表示目前OpenAI也在跟相關(guān)政府監(jiān)管部門保持定期的聯(lián)系,認為整個行業(yè)的監(jiān)管應該被同步推進。在此前的一次節(jié)目中,Sam Altman也表示 從ChatGPT開始,AI出現(xiàn)了推理能力。但并沒有人能解釋這種能力出現(xiàn)的原因。他還承認,AI確實有殺死人類的可能性,為了解決這個問題,就必須不斷迭代學習并開發(fā)出新的技術(shù)保證AI的安全使用。“AI現(xiàn)在還并不那么可怕,但我們應該已經(jīng)離可怕的AI不遠了”。Sam Altman在不久前的推特中說道。圖片最后,昨天這封公開信末尾說,人工智能技術(shù)無疑將給人類帶來更繁榮、精彩的未來,我們在成功創(chuàng)建了強大的人工智能系統(tǒng)之后,現(xiàn)在可以享受一個充滿收獲的“人工智能之夏”,但我們?nèi)匀恍枰o機制、社會留出更多適應的時間。———“讓我們享受一個漫長的人工智能之夏,而不是匆忙地跑進秋天”。而對于這個具有詩意的描述和呼吁,也有人回復說道,“我們也不應因為恐懼,而將它再次關(guān)進冬天”。附:公開信原文暫停巨型 AI 實驗:一封公開信大量研究表明并得到頂級 AI 實驗室的認可,具有人類競爭智能的 AI 系統(tǒng)可能對社會和人類構(gòu)成深遠的風險。正如被廣泛認可的Asilomar AI 原則中所描述的那樣,高級 AI 可能代表地球生命史上的深刻變化,應以相應的關(guān)懷和資源進行規(guī)劃和管理。不幸的是,這種級別的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發(fā)和部署更強大的數(shù)字思維,沒有人——甚至他們的創(chuàng)造者——都無法理解、預測、或可靠地控制。當代人工智能系統(tǒng)現(xiàn)在在一般任務上變得與人類具有競爭力,我們必須捫心自問:我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們應該自動化所有的工作,包括令人滿意的工作嗎?我們是否應該 發(fā)展最終可能超過我們、超越我們、過時并取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?我們不可以將此類決定委托給未經(jīng)選舉產(chǎn)生的技術(shù)領(lǐng)導者。只有當我們確信它們的影響是積極的并且它們的風險是可控的時候,才應該開發(fā)強大的人工智能系統(tǒng)。這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的大小而增加。OpenAI最近關(guān)于通用人工智能的聲明指出,“在某個時候,在開始訓練未來系統(tǒng)之前進行獨立審查可能很重要,并且對于最先進的工作來說,人們應該在合適的時間點限制用于創(chuàng)建新系統(tǒng)的計算增長率?!?我們同意,而當下就是這一時候。因此,我們呼吁所有 AI 實驗室立即暫停至少 6 個月的比 GPT-4 更強大的 AI 系統(tǒng)訓練。這種暫停應該是公開的和可驗證的,并且包括所有關(guān)鍵參與者。如果不能迅速實施這種暫停,政府應介入并暫停。人工智能實驗室和獨立專家應該利用這次暫停,共同開發(fā)和實施一套用于高級人工智能設計和開發(fā)的共享安全協(xié)議,并由獨立的外部專家進行嚴格審計和監(jiān)督。這些協(xié)議應確保遵守它們的系統(tǒng)是安全的,無可置疑。這并不意味著總體上暫停 AI 開發(fā),只是從危險的競賽中倒退到具有緊急功能的更大的不可預測的黑盒模型。人工智能研究和開發(fā)應該重新聚焦于使當今強大的、最先進的系統(tǒng),更加準確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。與此同時,AI 開發(fā)人員必須與政策制定者合作,以加快開發(fā)強大的 AI 治理系統(tǒng)。涵蓋內(nèi)容至少應包括:專門負責 AI 的新的和有能力的監(jiān)管機構(gòu);監(jiān)督和跟蹤高性能人工智能系統(tǒng)和大量計算能力;出處和水印系統(tǒng),以幫助區(qū)分真實與合成并跟蹤模型泄漏;強大的審計和認證生態(tài)系統(tǒng);人工智能造成的傷害的責任;為技術(shù)人工智能安全研究提供強大的公共資金;以及資源充足的機構(gòu)來應對人工智能將造成的巨大的經(jīng)濟和政治破壞。人類可以享受人工智能帶來的繁榮未來。成功創(chuàng)建強大的 AI 系統(tǒng)后,我們現(xiàn)在已經(jīng)可以享受人工智能之夏”,去收獲回報,去設計這些系統(tǒng)以造福所有人,并為社會提供更長的適應機會和時間。過去我們已經(jīng)暫停過其他可能對社會造成災難性影響的技術(shù)。我們現(xiàn)在也可以這樣這樣做。讓我們享受一個漫長的 AI 夏天,而不是毫無準備地跑入秋天。原文地址:https://futureoflife.org/open-letter/pause-giant-ai-experiments/


*參考資料:

注:封面圖來自于公開信官網(wǎng),版權(quán)屬于原作者。如果不同意使用,請盡快聯(lián)系我們,我們會立即刪除。


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: GPT-4

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉