谷歌宣布將禁止其AI技術(shù)武器化 但仍會與軍方合作
北京時間6月8日早間消息,Alphabet旗下谷歌部門周四稱,該公司將禁止其AI(人工智能)軟件被用于武器或不合理的監(jiān)視措施,這意味著該公司開始為其在這個新興業(yè)務(wù)領(lǐng)域中的業(yè)務(wù)決策建立標(biāo)準(zhǔn)。
本文引用地址:http://m.butianyuan.cn/article/201806/381314.htm這種新的限制措施可能有助于谷歌管理層平息數(shù)千名員工在過去幾個月中的抗議活動,他們反對該公司與美國軍方合作識別無人機視頻中的物體。
谷歌CEO桑達(dá)爾·皮查伊(Sundar Pichai)周四發(fā)表博文稱,該公司將尋求獲得美國政府的其他合同,其中包括與網(wǎng)絡(luò)安全、新兵招募以及搜救行動有關(guān)的合同等。他說道:“我們想要明確一點,那就是雖然我們不會開發(fā)用于武器的AI技術(shù),但仍將繼續(xù)在其他很多領(lǐng)域中與政府和軍方展開合作。”
先進(jìn)計算機成本和性能方面的突破已令AI技術(shù)開始從研究實驗室走向國防和醫(yī)療等行業(yè),而在出售AI工具這個新興的業(yè)務(wù)領(lǐng)域中,谷歌及其他一些大型科技公司已經(jīng)成為了佼佼者。這種技術(shù)能讓計算機查閱龐大的數(shù)據(jù)集以作出預(yù)測,以快于人類的速度找出模式和反?,F(xiàn)象。但AI系統(tǒng)可能促成讓專業(yè)軍人也自嘆不如的精準(zhǔn)無人機打擊,或是通過大規(guī)模收集線上交流信息的方式來找出異見者,從而引發(fā)了學(xué)院派倫理學(xué)家和谷歌職員的憂慮。
“建立一種明確而貫徹始終的標(biāo)準(zhǔn)來反對自身技術(shù)的武器化”將有助于谷歌證明其“捍衛(wèi)國際客戶和用戶信任的決心”,英國蘭卡斯特大學(xué)(Lancaster University)社會學(xué)教授露西·薩奇曼(Lucy Suchman)在谷歌周四宣布上述消息之前向路透社說道。
谷歌表示,該公司不會尋求發(fā)展旨在帶來身體傷害的AI應(yīng)用,或是與“違背國際認(rèn)可的人權(quán)規(guī)范”的監(jiān)視行為有關(guān)的應(yīng)用,又或是與可能帶來的好處相比“造成損害的風(fēng)險更大”的應(yīng)用。
另外,谷歌制定的原則還要求公司職員及客戶“避免給人帶來不公正的影響”,尤其是與種族、性別、性向以及政治或宗教信仰有關(guān)的影響。
皮查伊稱,對于違反上述原則的應(yīng)用,谷歌保留封禁的權(quán)利。
一名谷歌高管稱,這些原則和建議是一種“樣板”,AI社區(qū)中的任何人都可馬上在自己的軟件中加以應(yīng)用。雖然微軟和其他一些公司此前也已發(fā)布了AI指導(dǎo)原則,但整個行業(yè)一直都在密切關(guān)注谷歌的作法,原因是該公司內(nèi)部職員強烈反對其與美國政府之間的無人機合作。
評論