人工智能有了幽默感很危險?可能會因“有趣”殺人
近日,據(jù)國外媒體報道,專家警告稱,被設(shè)計擁有幽默感的機器人可能很難理解究竟什么叫“好玩的事情”,甚至可能因此而殺人。
本文引用地址:http://m.butianyuan.cn/article/201904/399308.htm研究人員指出,人工智能機器無法真正掌握開玩笑的時機,也不具備對玩笑的鑒賞力。這除了讓它們開不合時宜的玩笑之外,還可能招致災(zāi)難性后果。自動化軟件可能會把殺人當成一件好玩的事情,所以,讓人工智能具備理解幽默的能力是一件很有必要的事情。
德國達姆施塔特大學計算機科學家與語言學家崔斯坦?米勒(Tristan Miller)稱,這能增進機器與人類之間的聯(lián)系,尤其是如果能讓他們理解何為諷刺的話。這也許還能促進不同語言之間自動化翻譯的發(fā)展。
但一些專家對機器人能否理解幽默仍持懷疑態(tài)度,“人工智能永遠無法像人類一樣理解玩笑,”德克薩斯農(nóng)工大學一名研究幽默的計算語言學家基吉?漢佩爾曼(Kiki Hempelmann)表示,“就人工智能而言,它們并不需要幽默,完全不具備開玩笑的情境。教會人工智能幽默是很危險的,因為它們可能會把嚴肅的事情誤當作玩笑,還可能在不合時宜的情況下使用幽默。邪惡的人工智能甚至可能因此而殺人,因為它們覺得這很好玩?!?/p>
幽默是一個復雜的概念,需要有大量情境信息作為支撐,而專家認為,我們很難讓機器人具備這種能力,米勒博士補充道:“創(chuàng)造性語言——尤其是幽默——是計算機智能最難掌握的領(lǐng)域之一。因為幽默要依賴眾多現(xiàn)實世界的知識,包括背景知識和常識知識。而計算機沒有這些現(xiàn)實經(jīng)歷,它們只知道你告訴它們的事情?!?/p>
哥倫比亞大學計算機科學家、脫口秀表演家艾莉森?畢肖普(Allison Bishop)指出,計算機學習主要尋找規(guī)律,但喜劇表演則致力于尋找接近規(guī)律的事情,并對其稍作調(diào)整,使之既搞笑逗趣、又不乏尖利。畢肖普認為,幽默必須“足夠讓人們感同身受,又足夠出人意料?!?/p>
對喜劇演員來說,這一點能產(chǎn)生工作安全感。畢肖普博士稱,她哥哥成為了一名全職喜劇作家時,父母都很高興,因為這意味著他不會被機器取代了,“我愿意相信,人類有一種理解有趣事物的天賦。”
俄勒岡州立大學計算機科學家希瑟?奈特(Heather Knight)打造了一臺能表演喜劇的機器人Ginger,幫助她設(shè)計能夠更好地與人類互動、尤其是對人類行為做出反應(yīng)的機器。她發(fā)現(xiàn),人們最喜歡機器人表現(xiàn)出謙遜的幽默感。
例如,Ginger在人類所寫的笑話與故事的基礎(chǔ)上進一步發(fā)揮,開了個莎士比亞和機器的玩笑:“你們要是用刀劍刺我的電池包,我不是也會流出堿性液體的嗎?”(原句為《威尼斯商人》臺詞:你們要是用刀劍刺我們,我們不是也會出血的嗎?)
幽默與人工智能如今是一片不斷增長的學術(shù)領(lǐng)域。有些計算機無需人類幫助,就能自己寫作或理解雙關(guān)語。而計算機科學家稱,這是因為雙關(guān)語往往以發(fā)音相似、但意思不同的單詞為基礎(chǔ)。普渡大學計算機科學家茱莉亞?雷茲(Julia Rayz)指出,一旦超出這一范圍,計算機就很難做到這一點了。
“它們能理解雙關(guān)語——或者說算是理解吧,”雷茲博士表示,“而就算對我們來說,大多數(shù)雙關(guān)語也都需要大量背景知識才能理解。”不過畢肖普博士指出,雙關(guān)語有一定的數(shù)學元素,這些是能被計算機所理解的。
雷茲博士歷時15年時間,試圖讓計算機能夠理解幽默。但據(jù)她表示,結(jié)果只能說差強人意,有一次,她讓計算機讀取兩組不同的句子。其中有些是笑話,有些則不是。結(jié)果計算機將一些不被人類視為笑話的句子劃入了“笑話”一類。雷茲博士問計算機為何這么選擇時,計算機的回答從技術(shù)角度來看毫無問題。但這些句子其實一點也不好笑,也無法給人留下深刻印象。
IBM研發(fā)的人工智能曾經(jīng)在國際象棋和知識競賽《危機時刻!》(Jeopardy?。┲写驍×巳祟悺5聟⑴c的“Project Debater”挑戰(zhàn)則困難得多,因為該競賽以語言為基礎(chǔ),人工智能需要打敗有條理的人類辯論。
該項目的首席研究員、前喜劇作家諾姆?斯洛尼姆(Noam Slonim)在程序中加入了幽默成分,認為偶爾講個小笑話在辯論中是有幫助的。但這項功能在初始測試中起到了反作用:系統(tǒng)在錯誤的時間、或者以錯誤的方式開了玩笑。如今,該項目限定每次辯論中只能嘗試開一次玩笑,這些玩笑往往就比較謙遜了。
“我們知道,好的笑話必須把握好各種細微差別,還要掌握好時機,”斯洛尼姆表示,“而這些很難被自動化系統(tǒng)理解。”斯洛尼姆指出,正因為如此,幽默或許會成為未來圖靈測試的關(guān)鍵。圖靈測試是對機器智能展開的終極測試,如果獨立評估員無法判斷與自己互動的是人類還是機器,就視為測試通過,機器能做到的事與人類還存在巨大差距,在語言和幽默兩方面都是如此。
評論