谷歌痛失大將:“AI教父” Geoffrey Hinton離職,只為給人類(lèi)敲響警鐘?
深度學(xué)習(xí)的奠基人開(kāi)始后悔自己的畢生研究。
文| Juny 編輯| VickyXiao
進(jìn)入2023年以來(lái),科技界里彷佛沒(méi)有了大事,只剩下了人工智能。人人都在談?wù)揅hatGPT、科技圈開(kāi)卷大模型、OpenAI估值節(jié)節(jié)攀升、大公司你追我趕硝煙四起……
而這一切繁榮的背后,其實(shí)都離不開(kāi)三位人工智能研究者的工作———曾因提出和發(fā)展深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),在2019年獲得計(jì)算機(jī)界最高榮譽(yù)“圖靈獎(jiǎng)”的Geoffrey Hinton、Yoshua Bengio、Yann LeCun。
可以說(shuō),沒(méi)有這三位學(xué)者的研究,我們今天根本看不到ChatGPT、Bard的出現(xiàn),也不會(huì)這么快的就能在日常生活中使用語(yǔ)音識(shí)別、人臉識(shí)別、圖片檢索、機(jī)器翻譯、自動(dòng)駕駛等技術(shù)。
其中,Geoffrey Hinton是“三巨頭”中最核心的人物,被業(yè)界譽(yù)為“人工智能教父”。他在2013年加入谷歌,把深度學(xué)習(xí)技術(shù)帶進(jìn)了谷歌的多項(xiàng)業(yè)務(wù),直接推動(dòng)谷歌成為了AI技術(shù)最出色的公司之一。同時(shí),他還親自培養(yǎng)了一大批機(jī)器學(xué)習(xí)相關(guān)的人才,包括了如今OpenAI的聯(lián)合創(chuàng)始人和首席科學(xué)家Ilya Sutskever。
“深度學(xué)習(xí)三大先驅(qū)”,圖片來(lái)自于推特而就在加入谷歌的第十年、深度學(xué)習(xí)迎來(lái)爆發(fā)式發(fā)展的當(dāng)下,幾周前,現(xiàn)年75歲的Geoffrey Hinton辭去了他在谷歌的工作。而離職的原因,用他的原話來(lái)講,是想要沒(méi)有任何負(fù)擔(dān)的給所有人講一些他關(guān)于人工智能發(fā)展的“真心話”。|來(lái)自“人工智能教父”的擔(dān)憂和警告如果說(shuō)誰(shuí)最熱愛(ài)深度學(xué)習(xí)相關(guān)的人工智能研究,Geoffrey Hinton一定是最有發(fā)言權(quán)的那一位。從上個(gè)世紀(jì)70年代至今,Geoffrey Hinton作為計(jì)算機(jī)神經(jīng)網(wǎng)絡(luò)的開(kāi)拓者,已經(jīng)在這個(gè)領(lǐng)域默默耕耘了近50年。對(duì)于Geoffrey Hinton來(lái)說(shuō),從無(wú)到有的創(chuàng)造一個(gè)全新概念和技術(shù)的過(guò)程曾經(jīng)無(wú)比艱難。從上個(gè)世紀(jì)80年代他提出神經(jīng)網(wǎng)絡(luò)理論開(kāi)始,一直到本世紀(jì)初,長(zhǎng)達(dá)20多年的時(shí)間里,學(xué)術(shù)界對(duì)神經(jīng)網(wǎng)絡(luò)理論都充滿質(zhì)疑,同時(shí),受制于當(dāng)時(shí)數(shù)據(jù)集規(guī)模限制以及計(jì)算機(jī)算力的不足,相關(guān)研究的進(jìn)展也一度非常緩慢。在這個(gè)漫長(zhǎng)的過(guò)程中,一些人放棄了、一些人轉(zhuǎn)了研究方向,但Geoffrey Hinton從未停止過(guò)關(guān)于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的研究。但如今,當(dāng)深度學(xué)習(xí)終于守得云開(kāi)見(jiàn)月明,所有人都開(kāi)始向深度學(xué)習(xí)里瘋狂砸人力、砸資金時(shí),堅(jiān)守了多年的Geoffrey Hinton這時(shí)卻想要大家都暫停腳步,甚至對(duì)自己付出了一生心血的研究感到有些后悔,為什么?在最近接受紐約時(shí)報(bào)的專(zhuān)訪中,Geoffrey Hinton表示,自己此次從谷歌離職并不是因?yàn)橐泄雀?,而是他能夠在不影響谷歌的情況下,去真實(shí)地談?wù)揂I的潛在風(fēng)險(xiǎn)。在他看來(lái),作為AI技術(shù)的領(lǐng)軍者,過(guò)去這些年谷歌一直扮演著一位“負(fù)責(zé)任的管家”的角色,小心翼翼地保留和控制著那些可能造成傷害的技術(shù)。但由于微軟極快的將Bing和ChatGPT結(jié)合并向公眾發(fā)布,挑戰(zhàn)了谷歌核心的搜索引擎的業(yè)務(wù),所以谷歌也無(wú)法像過(guò)去那樣繼續(xù)保持著發(fā)展節(jié)奏,科技巨頭陷入了一場(chǎng)可能無(wú)法停止的競(jìng)爭(zhēng)之中。在這樣的情況下,他需要以一名研究者而不是谷歌員工的身份站出來(lái),給大家發(fā)出警告。結(jié)合整個(gè)采訪來(lái)看,Hinton主要有以下幾個(gè)方面的擔(dān)憂。一是在人工智能技術(shù)的支持下,他認(rèn)為互聯(lián)網(wǎng)將很快被各種虛假信息淹沒(méi)。這些信息包括文字、照片、視頻等,而普通人將越來(lái)越難分辨這些信息的真假,引發(fā)社會(huì)的失序。二是就業(yè)市場(chǎng)可能在還沒(méi)有準(zhǔn)備好的情況下被顛覆,造成失業(yè)潮的爆發(fā)。雖然目前像 ChatGPT 這樣的聊天機(jī)器人還只是對(duì)人類(lèi)工作的補(bǔ)充,但按照人工智能的發(fā)展速度,它們將很快可以取代律師助理、翻譯、行政助理等其他任何基礎(chǔ)的、重復(fù)性的工作?!八丝嗖钍?,但帶走的可能遠(yuǎn)不止于此?!盚inton表示。此外,他還擔(dān)心人工智能技術(shù)的接下來(lái)的發(fā)展會(huì)對(duì)人類(lèi)社會(huì)構(gòu)成威脅。他承認(rèn),在他們過(guò)去的研究之中,人工智能常常能從大量數(shù)據(jù)中學(xué)習(xí)進(jìn)而產(chǎn)生出很多讓人意想不到的行為。而當(dāng)前,包括個(gè)人和公司在內(nèi)的很多使用者們不僅讓人工智能自主生成代碼,也讓人工智能運(yùn)行和管理著代碼。在這種不斷的訓(xùn)練之中,很有可能讓“自主殺手機(jī)器人”真的成為現(xiàn)實(shí)。“很多人都覺(jué)著這很遙遠(yuǎn),我曾經(jīng)也是這么認(rèn)為的,覺(jué)得至少還要有30-50年我們才會(huì)走到那一天。但就我目前所了解到的信息而言,我已經(jīng)不這么想了。”Hinton認(rèn)為,谷歌和微軟以及其他大型公司之間的競(jìng)爭(zhēng),將很快升級(jí)為一場(chǎng)全球性競(jìng)爭(zhēng),如果沒(méi)有某種監(jiān)管,這場(chǎng)競(jìng)爭(zhēng)將不會(huì)停止,人工智能發(fā)展的速度會(huì)遠(yuǎn)超我們的想象,并最終走向失控。|呼吁AI監(jiān)管的聲音越來(lái)越強(qiáng)如果以上這些話從別人口中說(shuō)出來(lái),大家可能仍然會(huì)覺(jué)得這些觀點(diǎn)帶著危言聳聽(tīng)的意味。但當(dāng)如今世界上人工智能領(lǐng)域最權(quán)威的專(zhuān)家、深度學(xué)習(xí)的奠基人Geoffrey Hinton也這么說(shuō)時(shí),也引發(fā)了更多人開(kāi)始認(rèn)真思考和關(guān)注這個(gè)問(wèn)題。實(shí)際上,在此次Geoffrey Hinton發(fā)聲之前,最近幾個(gè)月來(lái)人工智能領(lǐng)域就已經(jīng)發(fā)起過(guò)兩波大型的聯(lián)名,呼吁謹(jǐn)慎地發(fā)展人工智能技術(shù)。一次是由馬斯克、Yoshua Bengio等數(shù)千名來(lái)自學(xué)術(shù)界和企業(yè)界的大佬呼吁至少暫停6個(gè)月比GPT-4更強(qiáng)模型的研究的公開(kāi)信。另一次則是由擁有40多年歷史、人工智能領(lǐng)域最權(quán)威學(xué)術(shù)機(jī)構(gòu)之一的人工智能促進(jìn)協(xié)會(huì)(AAAI)的19名現(xiàn)任及前任領(lǐng)導(dǎo)人所發(fā)布的聯(lián)名信,其中也包括了微軟現(xiàn)任首席科學(xué)家、人工智能研究專(zhuān)家Eric Horvitz。雖然此前馬斯克他們暫停模型研發(fā)的呼吁在業(yè)界受到了爭(zhēng)議,包括Yann LeCun、吳恩達(dá)在內(nèi)的研究者都對(duì)停止研發(fā)“一刀切”的做法表示了反對(duì),甚至也有人質(zhì)疑馬斯克等人提出暫停研發(fā)是為了私利。但目前看來(lái),關(guān)于共同加強(qiáng)AI監(jiān)管、預(yù)防潛在性危險(xiǎn)發(fā)生的觀點(diǎn),大家的看法幾乎都是一致的。在今天Geoffrey Hinton的報(bào)道發(fā)出后,吳恩達(dá)第一時(shí)間轉(zhuǎn)發(fā)了Geoffrey Hinton的推特表示支持,感謝Hinton對(duì)于人工智能技術(shù)所做出的不可估量的貢獻(xiàn),以及對(duì)人工智能在虛假信息、自動(dòng)機(jī)器和勞動(dòng)力影響方面的發(fā)聲。一些AI的投資人、研究者今天也紛紛轉(zhuǎn)發(fā)了Geoffrey Hinton的訪談,呼吁學(xué)界、工業(yè)界、政府監(jiān)管機(jī)構(gòu)應(yīng)該快速行動(dòng)起來(lái),趁當(dāng)前技術(shù)還在可控范圍內(nèi),盡快制定好監(jiān)管框架和應(yīng)用方案等。當(dāng)然,也有研究者并不認(rèn)同AI威脅論,其中就包括了Geoffrey Hinton曾經(jīng)的學(xué)生、研究的伙伴Yann LeCun。他此前多次表示,大語(yǔ)言模型根本不算什么,要想真正通往AGI之路,還需要構(gòu)建“世界模型”。對(duì)此,很多人也很希望這些對(duì)于人工智能發(fā)展持有不同觀點(diǎn)的研究泰斗們能夠很快來(lái)一場(chǎng)深度對(duì)談,讓人們更多的了解當(dāng)前人工智能發(fā)展前方的機(jī)遇和風(fēng)險(xiǎn)。|AI會(huì)成為新時(shí)代的“原子彈”嗎?在此次的訪談中,一個(gè)尤其引人關(guān)注的地方在于Geoffrey Hinton在談到AI風(fēng)險(xiǎn)時(shí),多次提及了核武器。從一定程度上來(lái)看,Geoffrey Hinton或許認(rèn)為AI對(duì)人類(lèi)社會(huì)的潛在危險(xiǎn)并不亞于核武器。他表示,跟核武器研究不同,現(xiàn)在AI研究更危險(xiǎn)的地方在于,我們目前幾乎沒(méi)有辦法知道有哪些組織或者國(guó)家正在秘密研究這項(xiàng)技術(shù)。理想的情況下,全球各國(guó)組織和科學(xué)家們應(yīng)該共同進(jìn)行合作和對(duì)技術(shù)進(jìn)行控制,但顯然現(xiàn)在很難做到這一點(diǎn)。作為深度學(xué)習(xí)技術(shù)的發(fā)起人,Geoffrey Hinton坦言自己目前甚至有些后悔進(jìn)行了這項(xiàng)技術(shù)的研究。當(dāng)潘多拉魔盒被打開(kāi),作為研究人員很難去防止不好的人利用這些技術(shù)去做不好的事。而Hinton的這種說(shuō)法也讓人不由地想起了當(dāng)年“原子彈之父”羅伯特·奧本海默相似的心路歷程。當(dāng)年,美國(guó)在廣島長(zhǎng)崎投放原子彈兩個(gè)月之后,奧本海默辭去了職務(wù),之后他在擔(dān)任美國(guó)原子能委員會(huì)顧問(wèn)期間一直致力于游說(shuō)國(guó)際機(jī)構(gòu)對(duì)軍備進(jìn)行管制,并運(yùn)用影響力宣揚(yáng)控制核武器和核不擴(kuò)散運(yùn)動(dòng)。Geoffrey Hinton說(shuō),以前人們問(wèn)他如何從事具有潛在危險(xiǎn)的技術(shù)時(shí),他總會(huì)會(huì)引用奧本海默的話:“當(dāng)你看到一個(gè)東西擁有美妙的技術(shù)前景時(shí),就盡管去做吧?!钡F(xiàn)在,他已經(jīng)不會(huì)再那樣說(shuō)了。“人們不應(yīng)該快速擴(kuò)大AI研究的規(guī)模,直到足夠了解自己是否能夠控制它,”Geoffrey Hinton說(shuō)道。*參考資料:
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
END
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。