美專家:機(jī)器人與人類是伙伴 中國落后美國5年
二、人與機(jī)器關(guān)系的思考
本文引用地址:http://m.butianyuan.cn/article/201601/286077.htm1、懸而未決的倫理困境
縱觀人類歷史,技術(shù)雖然已經(jīng)取代了人類勞動力,火車頭和拖拉機(jī)仍然不會作出人類級別的決策,但在以后,隨著技術(shù)的進(jìn)步,“會思考的機(jī)器”可以。它還可以了解到技術(shù)與人性共同進(jìn)化的過程,這一過程同樣又會提出同樣的問題:誰將處于主導(dǎo)地位?在硅谷,慶祝機(jī)器的崛起已成為時尚,可以從奇點(diǎn)研究中心(Singularity Institute)這類公司的崛起和凱文·凱利 2010 年的《科技想要什么》(What Technology Wants)這類書籍中清晰地看出這一點(diǎn)。早在 1994 年的《失控》(Out of Control)中,凱利就已堅定地站在了機(jī)器一邊。他在書中描述了人工智能先驅(qū)馬文·明斯基和道格拉斯·恩格爾巴特兩人間的一次會談。
20 世紀(jì) 50 年代,當(dāng)這兩個家伙在麻省理工學(xué)院見面后,人們認(rèn)為他們之間進(jìn)行了如下對話。
明斯基:我們要讓機(jī)器變得智能,我們要讓它們擁有意識。恩格爾巴特:你要為機(jī)器做這些事?那你又打算為人類做些什么呢?
通常,那些致力于讓計算機(jī)變得更友好、更人性化、更以人為本的工程師們會講這個故事,但是,我直接站在了明斯基一邊——站在了機(jī)器一邊。人們會存活下來,我們會訓(xùn)練我們的機(jī)器來服務(wù)我們。但是,我們又將為機(jī)器做些什么呢?
凱利指出,明斯基和恩格爾巴特分別持有不同的立場,這一點(diǎn)毋庸置疑。但是,認(rèn)為“人類會存活下來”的觀點(diǎn)顯然輕視了它們的影響。他基本上是在復(fù)述明斯基對人工智能到來的意義的回答:“如果我們夠幸運(yùn),或許它們會把我們當(dāng)寵物養(yǎng)。”
明斯基的觀點(diǎn)反映了 AI 和 IA 之間的鴻溝。到目前為止,人工智能圈子在絕大多數(shù)時候都選擇忽視他們認(rèn)為只是強(qiáng)大工具的系統(tǒng)帶來的影響,規(guī)避了對道德問題的討論。當(dāng)我詢問自動化對人類影響的話題時,一位正在打造新一代機(jī)器人的工程師告訴我:“你不能這樣想。你只需決定你將盡己所能,為全人類改善世界。”
在已經(jīng)過去的 50 年中,麥卡錫和恩格爾巴特的理論仍然各自為政,他們最為核心的沖突仍然懸而未決。一種方法要用日益強(qiáng)大的計算機(jī)硬件和軟件組合取代人類;另一種方法則要使用相同的工具,在腦力、經(jīng)濟(jì)、社會等方面??發(fā)展人類的能力。盡管鮮有人注意這些方法之間的鴻溝,這場新技術(shù)浪潮的爆炸 (一個正在影響現(xiàn)代生活方方面面的技術(shù)浪潮)將極力壓縮這種分化,并防止反彈的發(fā)生。
機(jī)器是會取代人類工人還是增強(qiáng)他們的能力?在某種層面上,這兩種結(jié)果都會實現(xiàn),但需要再次注意的是,這個問題本身就存在問題,它只會讓我們得到偏頗的答案。軟件和硬件機(jī)器人都已足夠靈活,它們最終都會變成我們在程序中為它們設(shè)計的模樣。在我們當(dāng)前的經(jīng)濟(jì)體系中,機(jī)器人(包括機(jī)器和智能系統(tǒng)) 被如何設(shè)計、怎樣使用,都完全是由成本和收益確定的,而且成本正在以不斷加快的速度下降。在我們的社會中,經(jīng)濟(jì)學(xué)理論指出,如果一項工作能夠由機(jī)器(硬件或軟件)完成,并且成本更低,那么在大多數(shù)情況下,人們會選擇讓機(jī)器來完成這項工作。只不過是時間早晚的問題。
該在這場爭論中站怎樣的立場實在很難抉擇,因為沒有顯而易見的正確答案。盡管無人駕駛汽車將取代數(shù)以百萬計的崗位,但它們也將拯救更多的生命。今天,在大多數(shù)情況下,人們會以收益和效率為根據(jù)決定實現(xiàn)哪些技術(shù), 但也明顯需要新的道德演繹。然而,決定成敗的不只有細(xì)節(jié)。就像核武器和核動力一樣,人工智能、基因工程和機(jī)器人學(xué)將在未來 10 年內(nèi)產(chǎn)生人們意料之中和意料之外的廣泛的社會影響。
2、手推車難題,是否選擇“更小的惡魔”
所謂的“手推車難題”通常是這樣的:一輛失控的手推車正一路向下狂奔,如果它繼續(xù)前進(jìn)的話,將有 5 個人會被殺死。你可以讓這輛手推車轉(zhuǎn)向另一個不同的方向,從而拯救這 5 個人的生命,在那個方向上只有 1 個人,而這個人將被手推車撞死。掉轉(zhuǎn)手推車,以犧牲 1 個人的代價來避免 5 個人的死亡,道德會允許嗎? 1967 年,英國哲學(xué)家菲利帕·富特(Philippa Foot)在一篇論述流產(chǎn)倫理問題的論文中首先提出了這個難題,最終引發(fā)了針對選擇“更小的惡魔”這一概念的無止境的哲學(xué)辯論。最近,它又演變成“機(jī)器人汽車是否應(yīng)該為了躲避跑到路中央的 5 個孩子而選擇開到人行道上撞死 1 個成年人”的議題。
通常,人們可以設(shè)計讓軟件選擇那個“較小的惡魔”,但問題的框架似乎在其他層面上存在錯誤。因為 90% 的交通事故是由駕駛員錯誤導(dǎo)致的,似乎自動駕駛汽車能夠令傷亡總數(shù)出現(xiàn)顯著下降,所以,盡管仍然有少數(shù)事故純粹是技術(shù)失敗導(dǎo)致的,但更好的產(chǎn)品應(yīng)該服務(wù)人類。從某種程度上說,汽車產(chǎn)業(yè)已經(jīng)贊同了這一邏輯,例如,緊急氣囊拯救的生命遠(yuǎn)比問題氣囊包導(dǎo)致的傷亡要多。
對這一問題狹隘的關(guān)注也忽視了自動駕駛汽車在未來可能的運(yùn)行方式。很有可能到那個時候,路上的工人、警察、緊急車輛、汽車、行人和騎行者都會以電子化形式告知其他人自己的存在,甚至沒有完全自動化的功能都能顯著提高安全性。一項名為“V2X”的技術(shù)正在全球范圍內(nèi)接受測試,它能夠讓附近汽車的位置進(jìn)行共享。在未來,甚至正在上小學(xué)的孩子們也會拿上傳感器, 向汽車警告自己的存在,降低事故發(fā)生的可能性。
令人困惑的是,哲學(xué)家們通常不會從更宏觀的角度探究手推車難題,而只是將其當(dāng)作獨(dú)立事件的一個縮影。誠然,如果技術(shù)失敗,這將成為一出獨(dú)立的悲劇。改善運(yùn)輸整體安全性的系統(tǒng)似乎十分必要,盡管它們并不完美。將人類排除出駕駛所帶來的哲學(xué)問題遠(yuǎn)比它對經(jīng)濟(jì)學(xué)、社會學(xué)甚至文化產(chǎn)生的影響更有趣。2013 年,美國有 3.4 萬人死于交通事故,236 萬人受傷。2012 年,全美有 380 萬人以駕駛維生。對比一下這些數(shù)字。如果無人駕駛汽車在未來 20 年內(nèi)出現(xiàn),它們很有可能取代很多人的工作。
3、人與機(jī)器,是伙伴不是敵人
微軟公司的園區(qū)不規(guī)則地分布著環(huán)環(huán)相扣的人行道、建筑物、運(yùn)動場、食堂和有冷杉點(diǎn)綴的停車場。這兒看起來與硅谷的 GooglePlex 園區(qū)有些不同, 沒有色彩鮮艷的自行車。但相同點(diǎn)是年輕的技術(shù)工人可以輕松地進(jìn)入社區(qū)大學(xué), 甚至高中生也可以在園區(qū)里漫步。
當(dāng)你靠近 99 樓(微軟研究實驗室的所在地)大廳的電梯時,電梯大門會感應(yīng)到你的存在,然后自動開啟。這有些像《星際迷航》里的場景,柯克船長也從來沒有按過一個按鈕。這臺智能電梯是微軟高級研究員、雷蒙德研究中心主管埃里克·霍維茨的杰作。在眾多使用統(tǒng)計技術(shù)改善人工智能應(yīng)用性能的第一代計算機(jī)科學(xué)家中,霍維茨算得上是知名度較高的人工智能研究人員。
霍維茨和許多人一樣,也是因為對理解人類思維如何工作產(chǎn)生了濃厚興趣,開始了自己的學(xué)習(xí)。20 世紀(jì) 80 年代,他從斯坦福大學(xué)獲得醫(yī)學(xué)學(xué)位,馬上又開始了神經(jīng)生物學(xué)的碩士研究。
一天夜里,他獨(dú)自一人待在實驗室,把探針插入老鼠大腦中的一個神經(jīng)元中?;艟S茨興奮不已。屋子里很黑,有一臺示波器和一個音頻揚(yáng)聲器。當(dāng)聽到神經(jīng)元發(fā)出的聲音時,他對自己說:“我終于進(jìn)來了,我進(jìn)到了一個脊椎動物的思想里。”與此同時,他也意識到,自己并不明白這次沖擊在這個小動物的思維過程中到底意味著什么。霍維茨看了一眼自己的實驗臺,注意到一臺最近拿來的蘋果 IIe 型計算機(jī)的蓋布滑落到了一邊。他的心一沉,意識到自己正在運(yùn)用一種完全錯誤的方法。他正在做的事情無異于隨機(jī)將一只探針塞進(jìn)計算機(jī)里,試圖理解計算機(jī)軟件。
霍維茨離開了醫(yī)學(xué)領(lǐng)域,轉(zhuǎn)而開始研究認(rèn)知心理學(xué)和計算機(jī)科學(xué)。他選擇了卡內(nèi)基·梅隆大學(xué)的認(rèn)知科學(xué)家、人工智能先驅(qū)赫伯特·西蒙作為自己的遠(yuǎn)程導(dǎo)師,也開始接觸加州大學(xué)洛杉磯分校計算機(jī)科學(xué)教授朱迪亞·珀爾 (Judea Pearl)。珀爾開創(chuàng)了人工智能研究的新方法,這種方法與早期的邏輯和基于規(guī)則的方法具有明顯區(qū)別,專注于建立嵌套式的概率網(wǎng)絡(luò)來識別模式。從概念上來講,這與 20 世紀(jì) 60 年代遭到明斯基和珀爾特批評的神經(jīng)網(wǎng)絡(luò)的思路相距不遠(yuǎn)。
因此,20 世紀(jì) 80 年代,霍維茨在斯坦福大學(xué)遠(yuǎn)離了計算機(jī)科學(xué)研究的主流。許多主流人工智能研究者認(rèn)為,他對概率論的興趣是過時的,回到了過去的“控制論”方法。
1993 年,霍維茨來到微軟研究院,他的任務(wù)是打造一個團(tuán)隊,研發(fā)可以改善公司商業(yè)產(chǎn)品的人工智能技術(shù)。微軟的 Office 助手(即“Clippy”)1997 年問世,主要是為了幫助用戶掌握不易使用的軟件,它在很大程度上就是霍維茨團(tuán)隊在微軟研究院的研究成果。得更加容易,如今市面上已經(jīng)出現(xiàn)了幾種這一類型的增強(qiáng)產(chǎn)品。例如,早在 2005 年,兩位象棋愛好者使用一個下棋程序贏了一位象棋大師,以及其他下棋程序。
霍維茨仍在研究如何通過人類智能讓機(jī)器學(xué)習(xí)和計算機(jī)決策結(jié)合起來, 以此深化人機(jī)交互。舉例來說,他的研究人員與引導(dǎo)全民科學(xué)的工具 Galaxy Zoo的設(shè)計者們密切合作,利用人類網(wǎng)絡(luò)沖浪者的力量對銀河系圖片進(jìn)行分類。
眾籌勞動力正在科學(xué)研究中變成十分重要的資源:專業(yè)科學(xué)家可以指導(dǎo)業(yè)余愛好者,而業(yè)余愛好者要做的,只是玩一些利用人類認(rèn)知的精密游戲,來幫助科學(xué)家解決像繪制蛋白質(zhì)結(jié)構(gòu)一樣棘手的問題。
在很多情況下,人類專家團(tuán)隊已經(jīng)超過了某些最強(qiáng)大的超級計算機(jī)的能力。在評估完人類和機(jī)器的組合后,通過給每一個組分配一個特定的研究任務(wù), 科學(xué)家能夠創(chuàng)造一支強(qiáng)大的混合科研團(tuán)隊。
計算機(jī)擁有驚人的圖像識別能力,它們可以創(chuàng)建數(shù)百個視覺表格,分析目前望遠(yuǎn)鏡能夠觀測到的所有星系。這種做法并不昂貴,但也沒能產(chǎn)生最好的結(jié)果。在這個程序的新版本 Galaxy Zoo 2 中,擁有機(jī)器學(xué)習(xí)模型的計算機(jī)能夠解釋星系圖片,以便為人類分類員提供準(zhǔn)確的樣本,使之可以比之前更容易地為星系進(jìn)行登記。
在另一個改進(jìn)中,這個系統(tǒng)增加了識別不同參與者的特定技能的功能, 并能夠恰當(dāng)?shù)赜枰云胶?。Galaxy Zoo 2能夠自動對遇到的問題進(jìn)行分類,并且知道哪些人可以更有效地解決這個問題。
在 2013 年的一場 TED 演講中,霍維茨向觀眾展示了一名微軟實習(xí)生第一次遇到迎賓機(jī)器人時的反應(yīng)?;艟S茨展示了一小段視頻,里面記錄了從系統(tǒng)的視角來看這次互動的過程,尤其是記錄了這名女性實習(xí)生的臉部。這位年輕的女性靠近系統(tǒng),系統(tǒng)告訴她,霍維茨正在辦公室里與某人交談,并且提出可以為她安排會面時間,她猶豫了一下,??絕了計算機(jī)的提議。
“哇,這太驚人了。”這位年輕的女性低聲說。然后,為了結(jié)束這次對話, 她急匆匆地說了一句:“很高興認(rèn)識你!”霍維茨總結(jié)道,這是一個好的跡象。他認(rèn)為,這種類型的互動展現(xiàn)了人類和機(jī)器人成為伙伴的世界。
也許,與機(jī)器人交互的那種自由、放松之感,正是因為在連的另一邊并不是一個令人難以捉摸的人類。也許,這根本與人際關(guān)系無關(guān),更多的在于是取得控制成為主人還是成為奴隸。
4、選擇,一切與機(jī)器無關(guān)
在人工智能和機(jī)器人技術(shù)之間,未來既可能是烏托邦,也可能是地獄,還有可能是介于兩者之間的某種世界。如果生活和自由的標(biāo)準(zhǔn)有機(jī)會得到提高,但是否值得以犧牲自由和隱私為代價呢?是否存在能夠設(shè)計出這種系統(tǒng)的正途或是歧路?我堅信,答案就在這些設(shè)計師身上。
一組設(shè)計師設(shè)計出強(qiáng)大的機(jī)器人,讓人們可以完成此前無法想象的任務(wù),比如用于空間探索的編程機(jī)器人;而另一組人則研究用機(jī)器取代人類,比如設(shè)計出人工智能軟件,讓機(jī)器人可以為醫(yī)生和律師的工作“代班”。有必要讓這兩個陣營找到互相交流的途徑。我們?nèi)绾卧O(shè)計這些日益智能的機(jī)器、如何與它們互動, 將決定未來社會和經(jīng)濟(jì)的本質(zhì)。這將不斷影響現(xiàn)代世界的方方面面,從我們是否生活在一個階層更加分明(或更加模糊)的世界, 到身為人類究竟意味著什么。
對于當(dāng)今人工智能技術(shù)狀況的討論已經(jīng)突然轉(zhuǎn)向科幻小說或宗教領(lǐng)域。不過,機(jī)器自治的現(xiàn)實不僅屬于哲學(xué)范疇,也不是純粹的假設(shè)性問題了。我們已經(jīng)進(jìn)入了新時期,機(jī)器能夠執(zhí)行很多需要智慧與體力的人類工作:它們可以勝任工廠的工作、駕駛無人駕駛汽車,將人類排除在外汽車、診斷疾病,也能以人類律師的眼光閱讀文件,它們當(dāng)然也能控制武器,以極高的精準(zhǔn)度展開屠殺。
無論是機(jī)器設(shè)備,還是讓它們運(yùn)轉(zhuǎn)的軟件,實際上都是由人類設(shè)計的。馬歇爾·麥克盧漢(Marshall McLuhan)對這一過程的描述最為清晰:“我們塑造了工具,而之后,這些工具又塑造了我們。”
現(xiàn)實情況是,人類將繼續(xù)決定機(jī)器的能力。那些創(chuàng)造了日益強(qiáng)大、自動化的機(jī)器人和人工智能軟件的工程師們,將決定這些發(fā)明將要增強(qiáng)人類、控制人類還是完全去除人類的存在。
同樣可以確定的是,人類與機(jī)器的關(guān)系在每一種文化中都呈現(xiàn)了各自的特征。長久以來,日本人都對機(jī)器人情有獨(dú)鐘,而在美國,人們在崇敬機(jī)器的同時,又多了幾分懷疑和惶恐。
這些都不是什么新問題。在計算時代的黎明期,應(yīng)用數(shù)學(xué)家、控制論創(chuàng)始人諾伯特·維納(Norbert Wiener)就曾明確指出,智能機(jī)器時代的到來,帶來了一些清晰的選擇。不過到目前為止,大多數(shù)可選方案仍然僅限于推理與猜測。如今,隨著機(jī)器變得自動、敏捷、能夠四處移動,工程師、科學(xué)家、程序員以及老百姓所作出的每一個決定,都會即刻發(fā)生作用。今天,機(jī)器人學(xué)和人工智能軟件都在不斷喚起人們對個人計算時代早期的回憶。正如業(yè)余愛好者們締造了個人計算機(jī)產(chǎn)業(yè),人工智能設(shè)計師和機(jī)器人學(xué)家對技術(shù)進(jìn)步、新產(chǎn)品和它們身后的科技公司都抱有極大的熱情。與此同時, 多數(shù)軟件設(shè)計師和機(jī)器人工程師在被問到自己的發(fā)明會帶來什么潛在影響時都會感到不快,只能頻繁地以幽默來轉(zhuǎn)移話題,化解尷尬,但是,問題仍然是必要的。機(jī)器人發(fā)展中可沒有“盲眼鐘表匠”(blind watchmaker)。無論是增強(qiáng)還是自動化,都是由一個個人類設(shè)計師作出的設(shè)計決定。
評論