關(guān) 閉

新聞中心

EEPW首頁 > 工控自動化 > 業(yè)界動態(tài) > 學者專家呼吁禁止研發(fā)AI武器

學者專家呼吁禁止研發(fā)AI武器

作者: 時間:2015-08-03 來源:eettaiwan 收藏
編者按:攻擊性自動武器給人類生命帶來的潛在危險,試想一下如果這種武器不受控制,會造成多么嚴重的后果。

  物理學家霍金(Stephen Hawking)、Tesla執(zhí)行長Elon Musk以及蘋果(Apple)共同創(chuàng)辦人Steve Wozniak等幾百位在學術(shù)界與產(chǎn)業(yè)界頗負盛名的專家學者們?nèi)涨昂炇鹆艘环莘磳粜宰詣游淦鞯墓_信。

本文引用地址:http://m.butianyuan.cn/article/278150.htm

  這封公開信是生命未來研究所(Future of Life Institute;FLI)在2015年人工智慧國際聯(lián)合會(IJCAI)開幕時所發(fā)表的,用意在于警告開發(fā)軍事人工智慧(Artificial Intelligence;AI)系統(tǒng)的軍備競賽將會傷害人類。

  “如果有任何重大的軍事力量推動的發(fā)展,不可避免地將會造成一波全球性的軍備競賽,而這項技術(shù)軌跡的終點是顯而易見的:自動武器將會變成明日的Kalashnikovs沖鋒槍。”

  信中強調(diào),這樣的系統(tǒng)利用其強大的可承受能力,無可避免地將會變得無所不在,并且被用于暗殺、動蕩國家、進行種族屠殺與恐怖主義。

  FLI是由美國麻省理工學院(MIT)宇宙學家Max Tegmark和Skype共同創(chuàng)辦人Jaan Tallinn聯(lián)手成立的,Hawking與Musk擔任該研究所顧問,期望教導人們看清伴隨人類發(fā)展AI而來的風險。他們先前已經(jīng)公開指出超先進AI的潛在危險,Musk還曾經(jīng)強調(diào)先進的AI最終“可能成為我們最大的生存威脅”。


  由AI帶來的潛在危險已成為技術(shù)專家和決策者之間討論的共同話題。就在一個月前,位于美國華府的資訊技術(shù)與創(chuàng)新基金會(Information Technology and Innovation Foundation)邀請多位知名的電腦科學家共同針對超級智慧電腦是否真的對人類造成威脅的問題展開廣泛討論。

  加州大學柏克萊分校AI教授Stuart Russell參與了這場辯論會,同時也簽署了這封公開信。根據(jù)他的觀察,“AI是否會對人類造成威脅,取決于我們是否使其成為人類的威脅。”他強調(diào),我們還必須更加努力,才能確保不會使AI成為人類的威脅。

  美國軍方目前堅稱,自動系統(tǒng)必須服從人類的指揮。根據(jù)2012年美國國防部(DoD)的政策指令規(guī)定,“自動與半自動武器系統(tǒng)的設計必須能讓指揮官和營運商行使適當?shù)娜藶榕袛啵桉{于武力的使用之上。”

  然而,人類控制超越這些系統(tǒng)的實踐仍然不完善。2014年,人權(quán)組織Reprieve聲稱,美國無人機在每一次預定目標的攻擊行動中意外導致28名不明個人死亡。

  美國國防部對于自動武器的政策必須在發(fā)布后的五年內(nèi)重新認證,否則將在2022年到期。然而,如果其他國家不斷追逐自動系統(tǒng)的開發(fā),那么政治或軍事領袖是否會持持這項策略就不得而知了。

  在2014年的報告中,華府的一個防御政策小組——新美國安全中心(CNAS)聲稱,全球至少有75個國家仍不斷投資于自動軍事系統(tǒng)的研發(fā),而美國將“出于運作的必要性而被迫投入些系統(tǒng),同時也因為人員的成本以及傳統(tǒng)載人作戰(zhàn)平臺的發(fā)展越來越無以為繼?!?/p>

  如果CNAS是正確的,那么自動系統(tǒng)的經(jīng)濟將會十分吸引人,攻擊性武器的禁令可能無法實現(xiàn)。

  經(jīng)濟吸引力

  經(jīng)濟將在武器系統(tǒng)的訴求下展現(xiàn)明顯作用。Kalashnikov步槍在很大程度上取決于其普及度、可負擔性以及簡單性?;蛘?,以地雷為例,這種表面上的攻擊性自動武器并不包括在公開信提出“禁用攻擊性自動武器”的涵蓋范圍內(nèi)。

  根據(jù)聯(lián)合國的資料,地雷的制造費用介于3美元至75美元之間。從1960年代以來,已經(jīng)有多達1.1億個地雷被部署在全世界70多個國家中。此外,在戰(zhàn)時尚未被發(fā)現(xiàn)的地雷仍可能引爆。

  禁止地雷的確有其效果:在1999年分頒布禁雷條約(Mine Ban Treaty)后,因地雷死傷的人數(shù)已經(jīng)從每天25人降低到9人了。但對于地雷的限制至今尚未取得世界各地或每個人的重視。

  的確,更好的AI實際上也有許多好處。例如,基本的地雷演算法是:如果觸發(fā),隨即爆炸。它能做得更有識別能力嗎?——何時爆炸、該礦區(qū)的機制是機械或電子的?例如在地雷中加一個逾期計時器,就能避免許多意外致死,特別是當作戰(zhàn)結(jié)束后。更先進的系統(tǒng)對于有效目標應該具有更高的識別能力。

  攻擊性的向動武器目前已經(jīng)存在了。除了地雷,還有自動網(wǎng)路武器。例如,Stuxnet一直被歸類于AI。事實上,相較于消極地禁止自動武器系統(tǒng)以外,更實際也更有效的作法在于追尋一個積極管理的制度。



關(guān)鍵詞: AI武器

評論


技術(shù)專區(qū)

關(guān)閉