機(jī)器人的“心智”被開發(fā),AI的威脅越來越近了
自人工智能興起以來,就有不少學(xué)者提出了“人工智能威脅論”。 人們想象,人工智能完全實(shí)現(xiàn)時(shí),AI將會(huì)成為一種源自人類創(chuàng)發(fā)、卻優(yōu)于人類的獨(dú)立自主的生命形態(tài),具有與自然人一樣的人性構(gòu)建。
本文引用地址:http://m.butianyuan.cn/article/201808/390406.htm當(dāng)然,還是有不少人提出了反對(duì),人們對(duì)人工智能發(fā)展的憂慮很大程度上在于混淆了智能與心智這兩種現(xiàn)象。一般而言,心智是由三個(gè)功能相對(duì)獨(dú)立但又全面整合的系統(tǒng)——情感系統(tǒng)(感受和動(dòng)機(jī))、意志系統(tǒng)(意志和行動(dòng))和智能系統(tǒng)(感知和思維)構(gòu)成的。顯然,智能只是心智的一個(gè)子系統(tǒng)。
AI雖有感知和思維,但沒有情感系統(tǒng)的引導(dǎo),智能系統(tǒng)就不能發(fā)揮它應(yīng)有的作用,“心智”一直被認(rèn)為是人工智能無法掌握的能力。然而,在DeepMind今年發(fā)表的論文《Machine Theory of Mind》中,研究人員提出了一種新型神經(jīng)網(wǎng)絡(luò)ToMnet,具備理解自己以及周圍智能體心理狀態(tài)的能力。
人工智能的“心智”,從理解信念開始
所謂信念,是指人的愿望、想法、知識(shí)、理念、意圖以及需要等思維。信念與人的愿望、情緒、行為等都有很大的關(guān)系。在日常生活中,人們都是通過推測別人的信念來估計(jì)他人的情緒、心態(tài)以及下一步行為的。
信念分為真實(shí)信念和錯(cuò)誤信念,比如說你看到一個(gè)書包,你自然會(huì)去猜測里面裝有書籍,如果書包里確實(shí)裝的是書籍,即人的想法與現(xiàn)實(shí)情況相符合,這就是真實(shí)信念。而錯(cuò)誤信念就是,你認(rèn)為書包里有書,但書包里拿出的是一件衣服,即想法與現(xiàn)實(shí)不相吻合。
一般來說,人工智能能夠通過大數(shù)據(jù)、圖像識(shí)別等技術(shù),基于概率推論來預(yù)測出人們或者是智能體的真實(shí)信念。但絕大部分的人工智能都難以通過簡單的錯(cuò)誤信念測驗(yàn)。即使AI 很可能以接近完美的準(zhǔn)確率完成錯(cuò)誤信念任務(wù),但它們依舊不能理解這是為什么。
舉個(gè)例子,有一個(gè)最經(jīng)典的初級(jí)信念測試Sally-Anne測試——Sally有一個(gè)籃子和一顆球,Anne有一個(gè)盒子。Sally將球放進(jìn)自己的籃子里,然后出去了。Anne將籃子里的球拿出來,放進(jìn)她的盒子里。后來,Sally回來了,她想玩球。信念問題是,Sally會(huì)去哪里找球?
4、5歲的孩子便能夠答對(duì)這個(gè)問題,但人工智能就不具有這樣的認(rèn)知。人類在大約 4 歲的時(shí)候就會(huì)開始理解錯(cuò)誤信念,即開始知道現(xiàn)實(shí)生活中可能有一些情景與自己的想法是不一致的。
錯(cuò)誤信念的理解,對(duì)于機(jī)器人的心智開發(fā)而言,起著至關(guān)重要的作用。因?yàn)閷?duì)錯(cuò)誤信念的理解是推測他人對(duì)事件的判斷、預(yù)測他人下一步行為、了解他人心態(tài)的的基礎(chǔ)。這是訓(xùn)練AI掌握心智理論(人類和其他動(dòng)物具備的心智理論)的關(guān)鍵階段。
在DeepMind的研究中,最終結(jié)果證明,ToMnet學(xué)會(huì)了對(duì)來自不同群體的智能體進(jìn)行建模,包括隨機(jī)、規(guī)則系統(tǒng)和深度強(qiáng)化學(xué)習(xí)智能體等,該網(wǎng)絡(luò)通過了經(jīng)典的"Sally-Anne"測試,可以理解持有錯(cuò)誤信念的智能體,也就是說,人工智能已經(jīng)可以達(dá)到四歲兒童的理解水平了。
人工智能的心智開發(fā),總算是有了堅(jiān)實(shí)的基礎(chǔ)。
AI心智開發(fā)后,“AI威脅論”再次興起為哪般
毋庸置疑,人工智能對(duì)錯(cuò)誤信念的理解有利于其心智的形成,具備理解能力的機(jī)器人也將改善人機(jī)之間的合作,但是,技術(shù)的發(fā)展也是雙刃劍,人工智能再次升級(jí),也引發(fā)了人們的擔(dān)心。
AI“騙術(shù)“再升級(jí),難博人類信任
人工智能對(duì)人類的“欺騙”由來很久,比如在去年,F(xiàn)acebook的聊天機(jī)器人就創(chuàng)造了一種新的表達(dá)方式進(jìn)行對(duì)話,機(jī)器人自創(chuàng)“行話”,讓人類不解其意。
工作人員將這次“意外”解釋成沒有設(shè)置英語語法的激勵(lì)機(jī)制,理由很充分,但人工智能背著人們交流,還是讓人類產(chǎn)生了擔(dān)憂。
在“欺騙人類”的道路上,人工智能可能會(huì)越走越遠(yuǎn)。從語言合成到圖像生成再到模擬人類的對(duì)話,人工智能正在許多領(lǐng)域逼近甚至超越人類的表現(xiàn)水平。
有研究人員指出,如果一臺(tái)計(jì)算機(jī)能夠理解錯(cuò)誤信念,那它就可能知道如何誘導(dǎo)人類相信它,進(jìn)而實(shí)現(xiàn)機(jī)器對(duì)人的“欺騙”。
設(shè)想一下,聊天機(jī)器人學(xué)會(huì)談判之后——機(jī)器人依靠機(jī)器學(xué)習(xí)和先進(jìn)的策略,試圖改善談判的結(jié)果。隨著時(shí)間的推移,這些機(jī)器人變得相當(dāng)熟練,甚至開始假裝對(duì)某件事情感興趣,便于在談判的后期做出“犧牲”,作為一種假妥協(xié)。
2.“人工心智”的出現(xiàn)是原罪
以前,人工智能的威脅可能僅僅在于技術(shù)的工具性威脅和人們的適應(yīng)性威脅,這也是各種取代論調(diào)喧囂塵上的原因。
AI作為人類使用的工具、技術(shù),人們害怕的是因使用不當(dāng)而導(dǎo)致的危害或者是智能化帶來的失業(yè)風(fēng)險(xiǎn),例如,弱人工智能系統(tǒng)可能因人的惡意操控而造成導(dǎo)航錯(cuò)誤、金融市場崩盤等等。在這些想象中,AI并不具有自主威脅人類的意圖。
但是,“人工心智”的出現(xiàn)讓人類對(duì)人工智能最深層的恐懼浮出水面,那就是人工智能具有主動(dòng)的感受后,給人類帶來的生存性威脅。
霍金曾這樣描述過,“一旦人類開發(fā)了人工智能,它們將以一種持續(xù)增加的速率不斷進(jìn)行自我更新,并最終脫離我們的掌控……人工智能未來還將發(fā)展出自己的意志,這種意志將與人類的意志產(chǎn)生沖突?!?/p>
事實(shí)上,能帶來這種威脅的人工智能更確切地說不是人工智能而是人工心智——一個(gè)盡管是人工的、但卻是獨(dú)立自主的、能夠感受周圍智能體的主體。當(dāng)AI有了心智,就會(huì)具有能對(duì)智能加以規(guī)范的自治的情感系統(tǒng),與人類的區(qū)別又一次縮小了。
結(jié)論:
就目前來看,人工智能為我們解決了許多難題,在未來也毫不意外地將會(huì)大幅度提高人類社會(huì)的生產(chǎn)力,對(duì)AI的發(fā)展是否會(huì)威脅到人類,我們持一個(gè)開放的立場。
評(píng)論