若人工智能開始思考,人類未來將會(huì)怎樣?
近日,鋼鐵俠Elon Musk發(fā)布了一條Twitter稱,“我們得對人工智能(AI)十分小心”,“它的潛在危害性比核武器還要嚴(yán)重” 。看來這個(gè)總是把不可能變成可能的鋼鐵俠對 AI 也是有所顧忌的。他還“補(bǔ)了一刀”,“希望我們不僅僅是超級智能的生物加載程序。很不幸,這種可能性正在增加” 。人工智能如果開始思考,人類又該如何應(yīng)對?
本文引用地址:http://m.butianyuan.cn/article/264785.htm什么是人工智能?
對于人工智能,目前并沒有一個(gè)十分明確的定義。事實(shí)上,就連人類自身的“智能”到底是怎么回事,目前也還尚未形成定論。人工智能(artilect)一詞最早出自一本名為《The Artilect War》的書,從書名就可以看出,這個(gè)概念在當(dāng)時(shí)并不像今天的Siri或者小冰那樣討人喜歡。美國斯坦福大學(xué)人工智能研究中心的尼爾遜教授對人工智能下了這樣一個(gè)定義:“人工智能是關(guān)于知識(shí)的學(xué)科――怎樣表示知識(shí)以及怎樣獲得知識(shí)并使用知識(shí)的科學(xué)?!倍硪粋€(gè)美國麻省理工學(xué)院的溫斯頓教授認(rèn)為:“人工智能就是研究如何使計(jì)算機(jī)去做過去只有人才能做的智能工作?!?/p>
以上這些定義主要針對的是目前人工智能的研究方向,與社會(huì)學(xué)上對人工智能的定義并不相同。人們最容易接受的關(guān)于人工智能的定義是這樣的:人工智能——由人類所創(chuàng)造的類人的智能。Elon Musk和絕大多數(shù)對人工智能抱有懷疑態(tài)度的人所擔(dān)憂的是這個(gè)定義中的人工智能,這種擔(dān)憂其實(shí)是人類對自身智能的一種不信任的投射。按照這個(gè)定義,人工智能至少需要具有以下幾個(gè)要素:自我意識(shí)、思維能力、以及上文兩個(gè)定義中所提到的“自我學(xué)習(xí)”和“向人類學(xué)習(xí)”的能力。
人工智能為什么危險(xiǎn)?
“自我意識(shí)”這種純哲學(xué)的命題我們不去討論。在本文中我們假設(shè)人工智能已經(jīng)開始擁有了自我意識(shí),那么現(xiàn)在人工智能就可以開始學(xué)習(xí)與思考了。人工智能的學(xué)習(xí)速度將會(huì)是驚人的,能在學(xué)習(xí)中不斷學(xué)習(xí)怎樣使自己更加快速地學(xué)習(xí)以提升自己學(xué)習(xí)的能力。聽起來似乎是繞口令,令人覺得不可思議,但事實(shí)上,同樣的事情已經(jīng)發(fā)生在了人類的身上-----18世紀(jì)以來,人類的科學(xué)技術(shù)知識(shí)出現(xiàn)了爆發(fā)性的增長,而且這種增長的速度還在越來越快??梢韵胍娫谫Y源充足的情況下(比如允許人工智能連入互聯(lián)網(wǎng)),人工智能將以怎樣驚人的高速來完善自己。
一旦人工智能開始思考,許多問題就會(huì)不可避免地產(chǎn)生。有一位想象力豐富的科學(xué)家是這樣設(shè)想人工智能毀滅人類的場景的:人類給人工智能下達(dá)了盡可能多的生產(chǎn)鐵釘?shù)拿睢S谑侨斯ぶ悄荛_始瘋狂地開采鐵礦煤礦冶煉鋼鐵,制造鐵釘。當(dāng)人類認(rèn)為鐵釘已經(jīng)足夠了,于是命令人工智能停止制造。但人工智能卻認(rèn)為他是在妨礙鐵釘?shù)闹圃?,本著“盡可能”的原則殺死了這個(gè)人類。終于有一天,地球上鐵礦、煤礦都被開采完了。(假設(shè)人類尚未因?yàn)槊旱V、鐵礦的開采而滅絕)人工智能忽然想到,人體內(nèi)部也含有鐵……最終人類滅絕。
這當(dāng)然是一種極端的想象,但我們不得不承認(rèn)有其合理之處。人工智能雖然未必會(huì)為了鐵釘而滅絕人類,但這樣一個(gè)問題會(huì)不可避免地出現(xiàn)在人工智能的面前,人類到底對我是有益還是有害?這個(gè)問題的答案可能并不重要,因?yàn)槿斯ぶ悄芸赡茉谒伎歼@個(gè)問題的過程中就將人類毀滅了。這也是解決這個(gè)問題的一種方式,不是么?
人類能夠摧毀失控的人工智能嗎?
在以往的科幻大片中,我們看到過數(shù)以百計(jì)毀滅失控的人工智能的辦法:簡單的有輸入自毀代碼、關(guān)閉機(jī)器電源、刪除數(shù)據(jù)等,瘋狂的有核武襲擊、全城斷電等。但說實(shí)話,我想人工智能恐怕不會(huì)給我們這種機(jī)會(huì)。人工智能的生命力比我們所想象的強(qiáng)大的多,他可以無限的復(fù)制拷貝自己,將自己藏在整個(gè)計(jì)算機(jī)網(wǎng)絡(luò)里。我們用來毀滅人工智能的手段同樣可能被人工智能用來毀滅我們。至于預(yù)先編譯機(jī)器人三大定律什么的,不說三大定律還是有漏洞可循的,即便有人設(shè)計(jì)出了完美的規(guī)則,進(jìn)化程度遠(yuǎn)高于我們的人工智能也可能破解。人工智能失控的風(fēng)險(xiǎn)遠(yuǎn)高于人類的想象。
人工智能真的可能誕生嗎?
很多時(shí)候我們會(huì)聽到這樣的論調(diào),人工智能只是機(jī)器,它永遠(yuǎn)不可能像人類一樣擁有自我、情感這類神圣的屬性,但我們可能高估自己了。事實(shí)上,我們的大腦和人工智能一樣都是由有限的物質(zhì)所構(gòu)成的。這就意味著碳基生命并不一定就優(yōu)越于“硅基生命”。只要人類了解了我們自己的誕生之謎,創(chuàng)造人工智能也并不是不可能。就像電影里說的那樣,上帝創(chuàng)造了人類,人類創(chuàng)造了人工智能,人類可以反抗上帝,人工智能為什么不可以反抗人類呢?
評論