GPT-4比ChatGPT有何進步?黃仁勛與OpenAI聯(lián)合創(chuàng)始人進行了一次“爐邊談話”
作者:Caleb
英偉達碰上OpenAI會擦出怎樣的火花?
就在剛剛,英偉達創(chuàng)始人兼首席執(zhí)行官黃仁勛在GTC的爐邊談話中與OpenAI共同創(chuàng)辦人Ilya Sutskever進行了一次深入交流。
視頻鏈接:
https://www.nvidia.cn/gtc-global/session-catalog/?tab.catalogallsessionstab=16566177511100015Kus#/session/1669748941314001t6Nv
前兩天,OpenAI推出了迄今為止最強大的人工智能模型GPT-4。OpenAI在官網(wǎng)上稱GPT-4是“OpenAI最先進的系統(tǒng)”,“能夠產(chǎn)生更安全、更有用的響應(yīng)”。
Sutskever在談話中也表示,與ChatGPT相比,GPT-4在許多方面標志著“相當(dāng)大的改進”,并指出新模型可以讀取圖像和文本。他說,“在未來的某個版本中,[用戶]可能會得到一張圖表”以回應(yīng)提問和查詢。
毫無疑問,隨著ChatGPT與GPT-4在全球范圍內(nèi)的爆火,這也成為了這次談話的關(guān)注焦點,而除了GPT-4及其前身包括ChatGPT相關(guān)話題外,黃仁勛與Sutskever也聊到了深度神經(jīng)網(wǎng)絡(luò)的能力、局限性和內(nèi)部運作方式,以及對未來AI發(fā)展的預(yù)測。
接下來就和文摘菌一起深入這場對話看看吧~
從網(wǎng)絡(luò)規(guī)模和計算規(guī)模還無人在意時做起
可能不少人一聽到Sutskever的名字最先想到的就是OpenAI及其相關(guān)的AI產(chǎn)品,但要知道,Sutskever的履歷可以追溯到吳恩達的博士后、Google Brain的研究科學(xué)家,以及Seq2Seq模型的合作開發(fā)者。
可以說,從一開始,深度學(xué)習(xí)就與Sutskever綁定在了一起。
在談及對深度學(xué)習(xí)的認識時,Sutskever表示,從現(xiàn)在來看,深度學(xué)習(xí)確實改變了世界。不過他個人的出發(fā)點更多是在于對AI存在的巨大影響潛力的直覺,對意識與人類體驗的濃厚興趣,以及認為AI的發(fā)展會幫助解答這些問題。
2002-03年期間,人們普遍認為學(xué)習(xí)是一件只有人類才能做到的事,計算機是無法學(xué)習(xí)的。而如果能讓計算機具有學(xué)習(xí)的能力,那將是AI領(lǐng)域一次重大的突破。
這也成了Sutskever正式進軍AI領(lǐng)域的契機。
于是Sutskever找到了同一所大學(xué)的Jeff Hinton。在他看來,Hinton所從事的神經(jīng)網(wǎng)絡(luò)正是突破口,因為神經(jīng)網(wǎng)絡(luò)的特性就在于能夠?qū)W習(xí),可以自動編程的并行計算機。
而彼時并沒有人在意網(wǎng)絡(luò)規(guī)模和計算規(guī)模的重要性,人們訓(xùn)練的神經(jīng)網(wǎng)絡(luò)只有50個或100個,數(shù)百個的規(guī)模已經(jīng)算大的了,一百萬的參數(shù)也被視為很龐大。
除此之外,他們還只能在沒有優(yōu)化過的CPU代碼上跑程序,因為沒人懂BLAS,多用優(yōu)化后的Matlab做一些實驗,比如用什么樣的問題來提問比較好。
但問題是,這些都是很零散的實驗,無法真正推動技術(shù)進步。
構(gòu)建面向計算機視覺的神經(jīng)網(wǎng)絡(luò)
當(dāng)時,Sutskever就察覺到,有監(jiān)督學(xué)習(xí)才是未來前進的方向。
這不僅是一種直覺,也是無需爭辯的事實。在神經(jīng)網(wǎng)絡(luò)足夠深且足夠大的基礎(chǔ)上,那么它就有能力去解決一些有難度的任務(wù)。但人們還沒有專注在深且大的神經(jīng)網(wǎng)絡(luò)上,甚至人們根本沒有把目光放在神經(jīng)網(wǎng)絡(luò)上。
為了找到一個好的解決方案,就需要一個合適的大數(shù)據(jù)集以及大量的計算。
ImageNet就是那個數(shù)據(jù)。當(dāng)時ImageNet是一個難度很高的數(shù)據(jù)集,但要訓(xùn)練一個大的卷積神經(jīng)網(wǎng)絡(luò),就必須要有匹配的算力。
接下來GPU就該出場了。在Jeff Hinton的建議下,他們發(fā)現(xiàn)隨著ImageNet數(shù)據(jù)集的出現(xiàn),卷積神經(jīng)網(wǎng)絡(luò)是非常適合GPU的模型,所以能夠讓它變得很快,規(guī)模也就這么越來越大了。
隨后更是直接大幅打破了計算機視覺的紀錄,而這不是基于以往方法的延續(xù),關(guān)鍵是在于這個數(shù)據(jù)集本身的難度與范圍。
OpenAI:從100人到ChatGPT
在OpenAI初期,Sutskever坦言道,他們也不是完全清楚如何推動這個項目。
在2016年初,神經(jīng)網(wǎng)絡(luò)沒有那么發(fā)達,研究人員也比現(xiàn)在少很多。Sutskever回憶稱,當(dāng)時公司只有100個人,大部分還都在谷歌或deepmind工作。
不過當(dāng)時他們有兩個大的思路。
其中一個是通過壓縮進行無監(jiān)督學(xué)習(xí)。2016年,無監(jiān)督學(xué)習(xí)是機器學(xué)習(xí)中一個尚未解決的問題,沒有人知道怎么實現(xiàn)。最近,壓縮也并不是人們通常會談到的話題,只是突然間大家突然意識到GPT實際上壓縮了訓(xùn)練數(shù)據(jù)。
從數(shù)學(xué)意義上講,訓(xùn)練這些自回歸生成模型可以壓縮數(shù)據(jù),并且直觀上也可以看到為什么會起作用。如果數(shù)據(jù)被壓縮得足夠好,你就能提取其中存在的所有隱藏信息。這也直接導(dǎo)致了OpenAI對情緒神經(jīng)元的相關(guān)研究。
同時,他們對相同的LSTM進行調(diào)整來預(yù)測亞馬遜評論的下一個字符時發(fā)現(xiàn),如果你預(yù)測下一個字符足夠好,就會有一個神經(jīng)元在LSTM內(nèi)對應(yīng)于它的情緒。這就很好地展示了無監(jiān)督學(xué)習(xí)的效果,也驗證了下一個字符預(yù)測的想法。
但是要從哪里得到無監(jiān)督學(xué)習(xí)的數(shù)據(jù)呢?Sutskever表示,無監(jiān)督學(xué)習(xí)的苦難之處不在于數(shù)據(jù),更多關(guān)于為什么要這么做,以及意識到訓(xùn)練神經(jīng)網(wǎng)絡(luò)來預(yù)測下一個字符是值得追求和探索的。于此它會學(xué)習(xí)到一個可以理解的表征。
另一個大的思路就是強化學(xué)習(xí)。Sutskever一直相信,更大的就是更好的(bigger is better)。在OpenAI,他們的一個目標就是找出規(guī)模擴展的正確途徑。
OpenAI完成的第一個真正的大型項目是實施戰(zhàn)略游戲Dota 2。當(dāng)時OpenAI訓(xùn)練了一個強化學(xué)習(xí)的agent來與自己對抗,目標是達到一定水平能夠和人類玩家游戲。
從Dota的強化學(xué)習(xí)轉(zhuǎn)變?yōu)槿祟惙答伒膹娀瘜W(xué)習(xí)與GPT產(chǎn)出技術(shù)基座結(jié)合,就成了如今的ChatGPT。
OpenAI是如何訓(xùn)練一個大型神經(jīng)網(wǎng)絡(luò)的
當(dāng)訓(xùn)練一個大型神經(jīng)網(wǎng)絡(luò)來準確預(yù)測互聯(lián)網(wǎng)上不同文本中的下一個詞的時候,OpenAI所做的是學(xué)習(xí)一個世界模型。
這看上去像是只在學(xué)習(xí)文本中的統(tǒng)計相關(guān)性,但實際上,學(xué)習(xí)這些統(tǒng)計相關(guān)性就可以把這些知識壓縮得非常好。神經(jīng)網(wǎng)絡(luò)所學(xué)習(xí)的是生成文本的過程中的一些表述,這個文本實際上是世界的一個映射,因此神經(jīng)網(wǎng)絡(luò)便能夠?qū)W習(xí)越來越多的角度來看待人類和社會。這些才是神經(jīng)網(wǎng)絡(luò)真正在準確預(yù)測下一個詞的任務(wù)中學(xué)習(xí)到的東西。
同時,對下一個詞的預(yù)測越準確,還原度就越高,在這個過程中得到的對世界的分辨率就越高。這是預(yù)訓(xùn)練階段的作用,但這并不能讓神經(jīng)網(wǎng)絡(luò)表現(xiàn)出我們希望它表現(xiàn)出的行為。
一個語言模型真正要做到的是,如果我在互聯(lián)網(wǎng)上有一些隨機文本,以一些前綴或提示開始,它會補全什么內(nèi)容。
當(dāng)然它也可以在互聯(lián)網(wǎng)上找到文本進行填充,但這就不是最初構(gòu)想的那樣的,因此還需要額外的訓(xùn)練,這就是微調(diào)、來自人類老師的強化學(xué)習(xí),以及其他形式的AI協(xié)助可以發(fā)揮作用的地方。
但這不是教授新的知識,而是與它交流,向它傳達我們希望它變成什么樣,其中也包括了邊界。這個過程做得越好,神經(jīng)網(wǎng)絡(luò)就越有用越可靠,邊界的保真度也就越高。
再談GPT-4
ChatGPT成為用戶增長最快的應(yīng)用沒多久,GPT-4就正式釋出。
在談到兩者的區(qū)別時,Sutskever表示,GPT-4相較于ChatGPT在許多維度上都做到了相當(dāng)大的改進。
ChatGPT與GPT-4之間最重要的區(qū)別在于在GPT-4的基礎(chǔ)上構(gòu)建預(yù)測下一個字符具有更高的準確度。神經(jīng)網(wǎng)絡(luò)越能預(yù)測文本中的下一個詞,它就越能理解文本。
比如,你讀了一本偵探小說,情節(jié)非常復(fù)雜,穿插了非常多的故事情節(jié)和人物,埋了很多神秘的線索。在書的最后一章,偵探收集了所有的線索,召集了所有人,說現(xiàn)在他將揭示誰是犯人,那個人就是……
這就是GPT-4能夠預(yù)測的東西。
人們都說,深度學(xué)習(xí)不會邏輯推理。但不管是這個例子還是GPT能做到的一些事,都展現(xiàn)出了一定程度的推理能力。
Sutskever對此回應(yīng)稱,當(dāng)我們在定義邏輯推理時,在進行下一步?jīng)Q策時如果你能夠以某種方式思考一下或許能得到一個更好的答案。而神經(jīng)網(wǎng)絡(luò)能走多遠也尚待考察,OpenAI目前還沒有充分挖掘出它的潛力。
一些神經(jīng)網(wǎng)絡(luò)其實已經(jīng)具備了這類能力,但是大多都還不夠可靠。而可靠性是讓這些模型有用的最大阻礙,這也是當(dāng)前模型的一大瓶頸。這不關(guān)乎模型是否具備特定的能力,而是具備多少能力。
Sutskever也表示,GPT-4發(fā)布時并沒有內(nèi)置的檢索功能,它只是一個能夠預(yù)測下一個詞的很好的工具,但可以說它完全具備這個能力,將檢索變得更好。
GPT-4還有一個顯著的改進就是對圖像的響應(yīng)和處理。多模態(tài)學(xué)習(xí)在其中發(fā)揮了重要的作用,Sutskever說到,多模態(tài)有兩個維度,第一個在于多模態(tài)對神經(jīng)網(wǎng)絡(luò)是有用處的,尤其是視覺;第二個在于除了文本學(xué)習(xí)外,從圖像中也可以學(xué)習(xí)到世界的知識。
人工智能的未來
再說到利用AI訓(xùn)練AI時,Sutskever表示這一部分的數(shù)據(jù)不應(yīng)該被忽視。
預(yù)測未來語言模型的發(fā)展是一件困難的事,但是在Sutskever看來,有充分理由相信這個領(lǐng)域會持續(xù)進步,AI也將在自己的能力邊界繼續(xù)用實力震驚人類。AI的可靠性是由是否可以被信任決定的,未來肯定會達到可被完全信賴的地步。
如果它不能完全理解,它也會通過提問來弄清楚,或者告訴你它不知道,這些正是AI可用性影響最大的領(lǐng)域,未來會有最大的進步。
現(xiàn)在就面臨這樣一個挑戰(zhàn),你想讓一個神經(jīng)網(wǎng)絡(luò)總結(jié)長文檔或獲取摘要,如何確定重要的細節(jié)沒有被忽視?如果一個要點顯然重要到每個讀者都會對此達成一致,那么就可以承認神經(jīng)網(wǎng)絡(luò)總結(jié)的內(nèi)容是可靠的。
在神經(jīng)網(wǎng)絡(luò)是否清楚地遵循用戶意圖這一點上也同樣適用。
未來兩年會看到越來越多這樣的技術(shù),讓這項技術(shù)變得越來越可靠。
來源:大數(shù)據(jù)文摘
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。