75歲圖靈獎得主Hinton離職谷歌!痛悔畢生工作,無法阻止人類AI大戰(zhàn)
一覺醒來,整個科技圈驚掉了下巴?。?!
深度學習泰斗、神經(jīng)網(wǎng)絡之父Geoffrey Hinton突然宣布離職谷歌。
為了能夠自由談論人工智能風險,而不考慮這對谷歌的影響。紐約時報的報道中,Hinton直接警示世人:注意,前方有危險,前方有危險,前方有危險!而正是對人工智能風險深深地擔憂,讓這位深度學習巨佬直言:「我對自己的畢生工作,感到非常后悔。」如今,距離Hinton入職谷歌,剛好十年。對于Hinton此舉,有人甚至勸說,應該將關注人工智能安全常態(tài)化,而不必辭去工作。這更應該是你留下來的理由。因為世界是不會停止的,像你這樣的偉大人物應該堅持下去,并將人工智能發(fā)展的更好。你應該勸說你的學生Yann LeCun和Ilya Sutskever。值得一提的是,ChatGPT背后真正的英雄正是OpenAI的聯(lián)合創(chuàng)始人兼首席科學家Ilya。
AI「關鍵時刻」,人類控制不住了
被稱為「人工智能教父」的Geoffrey Hinton,一直都是該領域最受尊敬的先驅(qū)之一。今年3月末,萬名大佬簽字發(fā)出聯(lián)名信,呼吁暫停訓練比GPT-4更強大的AI六個月。圖靈三巨頭中,Bengio高調(diào)簽名、LeCun旗幟鮮明地反對,唯有Hinton一言不發(fā),耐人尋味地保持沉默。而Hinton提出離職的時間,正是在此之后的4月份。從他的推特上可以看出,無論是最近GPT-4等超強AI引發(fā)的巨大爭議,還是谷歌高層的劇烈動蕩,Hinton都始終保持緘默,不發(fā)一言。許多人關注著這位人工智能教父的態(tài)度。在CBS的一次采訪中,Hinton表示「我們幾乎已經(jīng)讓學會計算機如何自我改進了,這很危險,我們必須認真考慮,如何控制它?!?/span>從人工智能的開創(chuàng)者到末日預言者,Hinton的轉(zhuǎn)變,也標志著科技行業(yè)正處于幾十年來最重要的一個拐點。先驅(qū)的沉痛反思,讓我們終于不能再掩耳盜鈴,假裝沒有看見AI可能給人類社會引發(fā)的深刻改變和巨大危機了。蓋茨等許多大佬認為,ChatGPT可能與上世紀90年代初網(wǎng)絡瀏覽器一樣重要,并可能在藥物研究、教育等領域帶來突破。與此同時,令許多業(yè)內(nèi)人士不安的是,他們擔心自己所做的研究,正在向外釋放某種危險。因為生成式人工智能可能已經(jīng)成為產(chǎn)生錯誤信息的工具。并在未來的某個時候,可能會對人類構成威脅。在Hinton看來,如何防止壞人利用它做壞事,我們還未能找到方法。在3月底呼吁暫停超強AI六個月的公開信發(fā)出幾天后,人工智能促進協(xié)會的19位領導人也發(fā)布了公開信,警告AI的風險。其中就包括微軟的首席科學官Eric Horvitz,而微軟已在一系列產(chǎn)品中(包括Bing搜索引擎中)部署了OpenAI的GPT技術。在喧囂的反對浪潮中,人工智能教父Hinton卻并未在這兩封信上簽名。他說,自己在辭去工作之前,并不想公開批評谷歌,或其他公司。忍到上個月,Hinton終于下定決心,通知谷歌自己即將辭職。
選擇離職谷歌后,Hinton終于可以暢所欲言地談論AI的風險了。
我對我的畢生工作,感到十分后悔。
我只能這樣安慰自己:即使沒有我,也會有別人。
開啟了歷史,也見證了歷史
1972年,Hinton在愛丁堡大學開始了他的研究生生涯。在那里,他首次開始研究神經(jīng)網(wǎng)絡——一種通過分析數(shù)據(jù)來學習技能的數(shù)學系統(tǒng)。當時,很少有研究人員相信這個觀點。但這成了他畢生的心血。2012年,Hinton和他兩名學生Ilya Sutskever和Alex Krishevsky建立了一個神經(jīng)網(wǎng)絡,可以分析數(shù)千張照片,并自學識別花、狗和汽車等常見物體。神經(jīng)網(wǎng)絡成為他與兩名學生共同創(chuàng)建的公司DNNresearch背后的突破性概念,該公司最終在2013年被谷以4400萬美元收購。2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因?qū)ι窠?jīng)網(wǎng)絡的研究獲得了2018年的圖靈獎,而神經(jīng)網(wǎng)絡正是ChatGPT、Bard等聊天機器人背后的奠基性技術。而Hinton的學生Ilya Sutskever,也在后來成為OpenAI首席科學家。大約在同一時間,谷歌、 OpenAI和其他科技公司開始構建從大量數(shù)字文本中學習的神經(jīng)網(wǎng)絡。那時的Hinton認為,這是機器理解和產(chǎn)生語言的一種強大方式。當然不得不承認,比起人類處理語言的方式?jīng)],神經(jīng)網(wǎng)絡還是力不能及。2022年,隨著谷歌和OpenAI 利用大量數(shù)據(jù)構建超強AI。Hinton的觀點發(fā)生了重大轉(zhuǎn)變。他仍然認為這些系統(tǒng)在某些方面不如人類的大腦,但它們在其他方面正在超越人類的智力。GPT-4發(fā)布當天,Hinton曾表示,
毛蟲吸取了營養(yǎng)之后,就會化繭為蝶。而人類提取了數(shù)十億個理解的金塊,GPT-4,就是人類的蝴蝶。Hinton稱贊的背后,讓許多人看到超強人工智能系統(tǒng)的智力已經(jīng)非同尋常。對此,Hinton談到人工智能技術時表示,隨著科技公司改進人工智能系統(tǒng),它們變得越來越危險。看看五年前和現(xiàn)在的情況,如果還要繼續(xù)傳播這項技術,后果就太可怕了!在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技術上謹慎的態(tài)度。他表示,直到去年,谷歌一直扮演著這項技術的「合適管家」角色,謹小慎微地不去發(fā)布可能造成危險的AI。這恰恰解釋了,為啥谷歌在這波人工智能浪潮中落后的原因。但是現(xiàn)在,微軟為其必應搜索引擎接入GPT-4的能力,已經(jīng)讓谷歌焦急地不得不做點什么。Hinton稱,科技巨頭們正在進行一場可能無法阻止的競爭。他眼下?lián)牡氖?,互?lián)網(wǎng)上將充斥著虛假的照片、視頻和文本,人們也無法去辨別什么是真實的,什么是虛假的內(nèi)容。他甚至還擔心,人工智能技術遲早會顛覆就業(yè)市場。如今,像ChatGPT這樣的聊天機器人往往能很好地輔助人類工作,甚至取代律師助理、私人助理、翻譯、以及其他處理死記硬背任務的人。未來,他表示自己很擔憂,GPT-4迭代會對人類構成威脅,強AI從大量數(shù)據(jù)中能夠?qū)W到意想不到的行為。人工智能系統(tǒng)不僅可以生成代碼,而且自己運行代碼。前段時間爆火的Auto-GPT就是一個非常典型的例子。他擔心有一天真正的自主武器ーー那些殺人機器人ーー會成為現(xiàn)實。上世紀80年代,Hinton曾是卡內(nèi)基梅隆大學的計算機科學教授,但因為不愿接受五角大樓的資助,他選擇了離開CMU,前往加拿大。當時,Hinton強烈反對在戰(zhàn)場上使用AI,他將其稱為「機器人士兵」。在一些人看來,類似的系統(tǒng)實際上比人類更聰明。Hinton表示自己曾經(jīng)認為,這太離譜了,最起碼要30-50年,甚至更久才能實現(xiàn)。
而現(xiàn)在,我不再那么想了。許多其他專家,包括Hinton的許多學生和同事,說這種威脅還僅是一種假設。
他指出,谷歌和微軟,以及其他公司之間的競爭,將升級為一場全球性競賽。如果沒有某種全球性的監(jiān)管,這場競賽將不會停止!
但他表示,這也不是絕對的。與核武器不同,我們無法知道哪個公司或國家,是否在秘密研究這項技術。網(wǎng)友熱議
有網(wǎng)友認為,Hinton對于的AI的看法太悲觀了。我見過的ChatGPT積極應用案例遠多于消極的,但現(xiàn)在的趨勢是把AI描繪成邪惡的煉金術。這些擔憂是合理的,我們會學習,我們會糾正它,然后我們會繼續(xù)前進。甚至有網(wǎng)友將其比為天網(wǎng),但我們還不能將其關閉?!溉斯ぶ悄芫拖衽硕嗬哪Ш幸粯?,一旦打開就無法關閉。」還有人對谷歌「負責任」這一觀點提出異議:-使用Breitbart訓練AI模型;-讓負面信息在YouTube上大肆傳播(反過來又為推薦算法提供依據(jù));-散布有關安全和隱私的科學假信息;-開除專家谷歌大腦和DeepMind合并這一事,與此相關嗎?
還有網(wǎng)友發(fā)出疑問,連Hinton都離職了,下一個會是?
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。