博客專欄

EEPW首頁 > 博客 > GPT-5不能停!吳恩達LeCun直播回懟馬斯克:汽車都還沒發(fā)明,要什么安全帶

GPT-5不能停!吳恩達LeCun直播回懟馬斯克:汽車都還沒發(fā)明,要什么安全帶

發(fā)布人:傳感器技術 時間:2023-04-10 來源:工程師 發(fā)布文章
夢晨 來自 量子位

大模型研究不能停!

吳恩達和LeCun為了這事兒,甚至親自搞了場直播。畢竟再不出手,事態(tài)眼看著越來越嚴重了:

馬斯克等人叫停GPT-5研發(fā)的事態(tài)再次升級,已從千人聯(lián)名發(fā)展到超過13500人簽署。

兩人還直言,暫停AI研究就是反理性:

AI研究暫停6個月,才是真正巨大的傷害。

應該受監(jiān)管的是AI產(chǎn)品,而不是背后的研究。

圖片

此前暫停比GPT-4強大的AI試驗的呼吁,已得到深度學習三巨頭中的Yoshua Bengio簽名支持,Hinton未簽名但表示“要比6個月更長才行”。

此次吳恩達與LeCun兩人, 除了直播闡述各自的觀點外,還回應了網(wǎng)友關心的更多問題。

觀看了直播和視頻回放的網(wǎng)友們則表示,視頻出境比推特發(fā)言提供了更多的上下文背景和微妙的語氣差異。

圖片

AGI逃出實驗室,需要擔心嗎?

LeCun認為,現(xiàn)在人們對AI的擔憂和恐懼應分為兩類:

一、與未來有關的,AI不受控制、逃離實驗室、甚至統(tǒng)治人類的猜測。

二、與現(xiàn)實有關的,AI在公平、偏見上的缺陷和對社會經(jīng)濟的沖擊。

對第一類,他認為未來AI不太可能還是ChatGPT式的語言模型,無法對不存在的事物做安全規(guī)范。

汽車還沒發(fā)明出來,該怎么去設計安全帶呢?

對第二類擔憂,吳恩達和LeCun都表示監(jiān)管有必要,但不能以犧牲研究和創(chuàng)新為代價。

吳恩達表示,AI在教育、醫(yī)療等方面創(chuàng)造巨大價值,幫助了很多人。

暫停AI研究才會對這些人造成傷害,并減緩價值的創(chuàng)造。

LeCun認為,“AI逃跑”或者“AI統(tǒng)治人類”這種末日論還讓人們對AI產(chǎn)生了不切實際的期待。

ChatGPT給人帶來這種想法是因為它語言流利,但語言并不是智能的全部。

語言模型對現(xiàn)實世界的理解非常表面,盡管GPT-4是多模態(tài)的,但仍然沒有任何對現(xiàn)實的“經(jīng)驗”,這就是為什么它還是會一本正經(jīng)地胡說八道。

而且這個問題,4年前LeCun已經(jīng)在《科學美國人》上與冷泉港實驗室神經(jīng)科學家Anthony Zador一起撰文回應過了,標題就叫《不必害怕終結者》

在直播節(jié)目中LeCun再次重申了文章的主要觀點。

統(tǒng)治的動機只出現(xiàn)在社會化物種中,如人類和其他動物,需要在競爭中生存、進化。

而我們完全可以把AI設計成非社會化物種,設計成非支配性的(non-dominant)、順從的(submissive)、或者遵守特定規(guī)則以符合人類整體的利益。

圖片

吳恩達則用生物科學史上的里程碑事件“阿希洛馬會議”來比較。

1975年,DNA重組技術剛剛興起,其安全性和有效性受到質疑。世界各國生物學家、律師和政府代表等召開會議,經(jīng)過公開辯論,最終對暫緩或禁止一些試驗、提出科研行動指南等達成共識。

圖片

吳恩達認為,當年的情況與今天AI領域發(fā)生的事并不一樣,DNA病毒逃出實驗室是一個現(xiàn)實的擔憂,而他沒有看到今天的AI有任何逃出實驗室的風險,至少要幾十年甚至幾百年才有可能。

在回答觀眾提問“什么情況下你會同意暫停AI研究?”時,LeCun也表示應該區(qū)分“潛在危害、真實危害”與“想像中的危害”,當真實危害出現(xiàn)時應該采取手段規(guī)范產(chǎn)品。

第一輛汽車并不安全,當時沒有安全帶、沒有好的剎車、也沒有紅綠燈,過去的科技都是逐漸變安全的,AI也沒什么特殊性。

而對于“如何看待Yoshua Bengio簽署了聯(lián)名?”這個問題,LeCun表示他和Bengio一直是朋友,他認為Bengio擔心的點在于“公司為了盈利掌握科技本質上就是壞的”,但他自己不這么看待,兩人觀點一致之處在于AI研究應該公開進行。

圖片

Bengio最近也在個人網(wǎng)站詳細解釋了他為什么會簽署。

隨著ChatGPT到來,商業(yè)競爭激烈了十多倍,風險在于各公司會急于開發(fā)巨大的AI系統(tǒng),把過去十幾年間開放的透明的習慣拋在腦后。

直播結束后,吳恩達與LeCun兩人還在與網(wǎng)友做進一步交流。

圖片

對于“你為什么不相信AI會逃出實驗室”,LeCun表示讓AI在一個特定硬件平臺上保持運行都很難了。

圖片

對于“AI達到奇點發(fā)生突變、不受控制”的回應則是,在現(xiàn)實世界中每個進程都會有摩擦力,指數(shù)增長會迅速變成Sigmoid函數(shù)。

圖片

還有網(wǎng)友開玩笑說,語言模型經(jīng)常被形容為“隨機吐出詞匯的鸚鵡”,但真實的鸚鵡危險多了,有喙、爪子和傷害人的意圖。

圖片

LeCun補充道,澳大利亞鳳頭鸚鵡更兇狠,我呼吁對鳳頭鸚鵡實施6個月的管制。


One More Thing

對于影響力越來越大的AI暫停6個月提案,也有越來越多的人表達自己的觀點。

比爾蓋茨對路透社表示“我不認為讓一個特定的組織暫停就會解決這些問題。在一個全球性的行業(yè)中,暫停很難執(zhí)行”。

據(jù)福布斯報道,谷歌前CEO埃里克施密特認為“監(jiān)管部門大多數(shù)人對科技的理解還不足以正確規(guī)范其發(fā)展。另外如果在美國暫停6個月,只會讓別的國家受益?!?/p>

與此同時,AI研究界另一股聲音的影響力也逐漸加大。

由非贏利組織LAION-AI(Stable Diffusion訓練數(shù)據(jù)提供者)發(fā)起的請愿書也有超過1400人簽署。

這個項目呼吁建設公眾資助的國際化超級AI基礎設施,配備10萬最先進的AI加速芯片,確保創(chuàng)新和安全。

就相當于粒子物理學界的CERN(歐洲核子研究組織)。

支持者包括LSTM之父Jürgen Schmidhuber,HuggingFace聯(lián)合創(chuàng)始人Thomas Wolf等知名研究者。

圖片


*博客內容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: 吳恩達

技術專區(qū)

關閉