霍金:人工智能要么為人所用 要么終結人類
一年一度的GMIC大會今日在北京國家會議中心舉行。在上午的領袖峰會上,世界著名物理學家斯蒂芬·威廉·霍金做了演講并回答了一些關于人工智能的問題。
本文引用地址:http://m.butianyuan.cn/article/201705/358613.htm雖然霍金的演講的題目為《讓人工智能造福人類及其賴以生存的家園》,但是霍金一再表示了其對人工智能發(fā)展的擔憂。
霍金稱,我目前見證的最深刻的社會變化是人工智能的崛起。
為了支持這一論點,霍金解釋到,文明所產(chǎn)生的一切都是人類智能的產(chǎn)物,從國際象棋和圍棋人機大戰(zhàn)的結果來看,霍金認為生物大腦可以達到的和計算機可以達到的,沒有本質區(qū)別。因此,它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則。人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。
霍金呼吁,研究人員必須能夠創(chuàng)造出可控的人工智能。在具體的問題上,霍金稱自己短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智能自主武器。他們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智能逐漸可以解讀大量監(jiān)控數(shù)據(jù)引起的隱私和擔憂,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟影響。而長期擔憂主要是人工智能系統(tǒng)失控的潛在風險,隨著不遵循人類意愿行事的超級智能的崛起,那個強大的系統(tǒng)威脅到人類。
“人工智能的成功有可能是人類文明史上最大的事件,但是人工智能也有可能是人類文明史的終結。”霍金總結道。
以下為霍金在GMIC2017上的演講實錄:
在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智能的崛起。簡單來說,我認為強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。我不得不說,是好是壞我們?nèi)圆淮_定。但我們應該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利。我們別無選擇。我認為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。
人工智能的研究與開發(fā)正在迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重復從提升人工智能能力轉移到最大化人工智能的社會效益上面?;谶@樣的考慮,美國人工智能協(xié)會(AAAI)于2008至2009年,成立了人工智能長期未來總籌論壇,他們近期在目的導向的中性技術上投入了大量的關注。但我們的人工智能系統(tǒng)須要按照我們的意志工作??鐚W科研究是一種可能的前進道路:從經(jīng)濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智能本身的各個分支。
文明所產(chǎn)生的一切都是人類智能的產(chǎn)物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質區(qū)別。因此,它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則。但我們并不確定,所以我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。
在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時,我也在擔憂創(chuàng)造一個可以等同或超越人類的事物所導致的結果:人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經(jīng)濟帶來極大的破壞。未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志。盡管我對人類一貫持有樂觀的態(tài)度,但其他人認為,人類可以在相當長的時間里控制技術的發(fā)展,這樣我們就能看到人工智能可以解決世界上大部分問題的潛力。但我并不確定。
2015年1月份,我和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份關于人工智能的公開信,目的是提倡就人工智能對社會所造成的影響做認真的調研。在這之前,埃隆·馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,但是如果部署不當,則可能給人類帶來相反的效果。我和他同在“生命未來研究所”的科學顧問委員會,這是一個為了緩解人類所面臨的存在風險的組織,而且之前提到的公開信也是由這個組織起草的。這個公開信號召展開可以阻止?jié)撛趩栴}的直接研究,同時也收獲人工智能帶給我們的潛在利益,同時致力于讓人工智能的研發(fā)人員更關注人工智能安全。此外,對于決策者和普通大眾來說,這封公開信內(nèi)容翔實,并非危言聳聽。人人都知道人工智能研究人員們在認真思索這些擔心和倫理問題,我們認為這一點非常重要。比如,人工智能是有根除疾患和貧困的潛力的,但是研究人員必須能夠創(chuàng)造出可控的人工智能。那封只有四段文字,題目為《應優(yōu)先研究強大而有益的人工智能》的公開信,在其附帶的十二頁文件中對研究的優(yōu)先次序作了詳細的安排。
在過去的20年里,人工智能一直專注于圍繞建設智能代理所產(chǎn)生的問題,也就是在特定環(huán)境下可以感知并行動的各種系統(tǒng)。在這種情況下,智能是一個與統(tǒng)計學和經(jīng)濟學相關的理性概念。通俗地講,這是一種做出好的決定、計劃和推論的能力?;谶@些工作,大量的整合和交叉孕育被應用在人工智能、機器學習、統(tǒng)計學、控制論、神經(jīng)科學、以及其它領域。共享理論框架的建立,結合數(shù)據(jù)的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音識別、圖像分類、自動駕駛、機器翻譯、步態(tài)運動和問答系統(tǒng)。
隨著這些領域的發(fā)展,從實驗室研究到有經(jīng)濟價值的技術形成良性循環(huán)。哪怕很小的性能改進,都會帶來巨大的經(jīng)濟效益,進而鼓勵更長期、更偉大的投入和研究。目前人們廣泛認同,人工智能的研究正在穩(wěn)步發(fā)展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所產(chǎn)生的一切,都是人類智能的產(chǎn)物;我們無法預測我們可能取得什么成果,當這種智能是被人工智能工具放大過的。但是,正如我說過的,根除疾病和貧窮并不是完全不可能,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規(guī)避風險是非常重要的。
現(xiàn)在,關于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智能自主武器。他們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智能逐漸可以解讀大量監(jiān)控數(shù)據(jù)引起的隱私和擔憂,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟影響。
長期擔憂主要是人工智能系統(tǒng)失控的潛在風險,隨著不遵循人類意愿行事的超級智能的崛起,那個強大的系統(tǒng)威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何出現(xiàn)的?我們應該投入什么樣的研究,以便更好的理解和解決危險的超級智能崛起的可能性,或智能爆發(fā)的出現(xiàn)?
評論