歐盟AI監(jiān)管新規(guī):公共場合人臉識別將被限制、甚至禁止!
大數(shù)據(jù)文摘授權轉載自AI科技評論
作者:陳彩嫻
編輯:劉冰一
繼2018年5月25生效的《歐盟一般數(shù)據(jù)保護條例》(江湖人稱“GDPR”)后,今年4月21日,歐盟首次發(fā)布了針對人工智能技術的監(jiān)管法規(guī)草案(如下),長達108頁,探討了企業(yè)與政府應該如何使用人工智能技術。
鏈接:
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence-artificial-intelligence
在這項草案中,AI的一系列應用范圍都受到了不同程度的限制,包括自動駕駛、招聘簡歷過濾、****貸款、入學篩選與測試評分等等,原因是:可能威脅到公民的人身安全與基本權利。
其中,計算機視覺應用最火的人臉識別技術,在公共場合的應用更是被高度禁止,除非是用于尋找失蹤兒童、防止恐怖活動威脅或識別刑事犯罪人員等特殊情況。即使有特殊情況,在公共場合應用人臉識別技術,也需要獲得司法機構或其他獨立機構的授權,并有時間、地理范圍和所搜索數(shù)據(jù)庫的限制。
違反新法規(guī)的公司,可能會面臨高達全球銷售額6%(最高2000萬歐元)的罰款。
歐盟AI監(jiān)管法規(guī)詳情
根據(jù)歐盟的法規(guī)草案,對人工智能應用的監(jiān)管根據(jù)風險等級,主要分為絕對禁止、高風險、較小風險與最小風險等四類。
1、絕對禁止的風險:對人類的安全、和權利構成明顯威脅的AI系統(tǒng)將被禁止。這包括操縱人類行為,以違反用戶自由意志的AI系統(tǒng)或應用程序,例如通過語音協(xié)助、鼓勵未成年人進行危險行為的玩具,或供政府進行“社交評分”的系統(tǒng)。
2、高風險:被確定為高風險的AI系統(tǒng)包括有以下應用的AI技術:
重要的基礎設施(例如運輸),可能將公民的生命和健康置于危險中;
教育或職業(yè)培訓,可能決定人們接受教育和專業(yè)課程(例如考試成績);
產(chǎn)品的安全組件(例如AI在機器輔助手術中的應用);
就業(yè),工人管理和自聘職業(yè)(例如招聘流程中使用的簡歷分類軟件);
重要的私人和公共服務(例如信用評分,剝奪了公民獲得貸款的機會);
可能會侵犯人們基本權利的執(zhí)法活動(例如評估證據(jù)的可信度);
移民,庇護和邊境管制管理(例如核實旅行證件的真實性);
司法和民主程序的執(zhí)行(例如,將法律應用于具體事件)。
高風險的AI系統(tǒng)在投放于市場之前,必須遵守嚴格的義務:
足夠的風險評估和紓解系統(tǒng);
提供給系統(tǒng)的高質量數(shù)據(jù)集可最大程度地降低風險和歧視;
記錄活動以確保結果的可追溯性;
詳細的文件,提供有關系統(tǒng)及其構建目標的所有必要信息,以供當局評估其合規(guī)性;
向用戶提供清晰、充足的信息;
適當?shù)娜藶楸O(jiān)督措施,以最大程度地降低風險;
高水平的魯棒性、安全性和準確性。
歐盟新法規(guī)要求,提供高風險人工智能技術的公司要向監(jiān)管機構提供安全證明文件,包括風險評估與解釋該技術如何做決策的文檔。企業(yè)還需要保證人為監(jiān)督系統(tǒng)的創(chuàng)建與使用方法。
需要注意的是,所遠程生物識別系統(tǒng)都被認為是高風險的,并有嚴格的要求。原則上,這類系統(tǒng)被禁止在公共場合進行執(zhí)法使用,除非是有特殊情況,比如尋找失蹤兒童,防止特定類型的、迫在眉睫的恐怖威脅,或者偵查、定位、識別或起訴犯有嚴重刑事罪行的犯罪者或嫌疑人。此類使用需要獲得司法機構或其他獨立機構的授權,并受時間、地理范圍和所搜索數(shù)據(jù)庫的一定限制。
3、較小風險(如具有透明義務的AI系統(tǒng)):在使用聊天機器人(chatbot)等AI系統(tǒng)時,用戶應意識到他們是在與機器交流,以做出繼續(xù)交流或停止交流的決定。
4、最小風險:這條法規(guī)建議允許免費使用AI賦能的視頻游戲或垃圾郵件過濾器等應用程序。絕大多數(shù)AI系統(tǒng)都屬于這一類。該法規(guī)草案不對此類AI進行干預,因為它們對公民的權利或安全所造成的風險極小,或沒有任何風險。
該條例的目的是為了促進可信賴人工智能技術的發(fā)展,提高歐洲人民對人工智能技術的信任度。如若通過,該法規(guī)將適用于歐盟所有成員國。違反新法規(guī)的公司,可能會面臨高達全球銷售額6%的罰款。
對人工智能的警惕并不只局限于歐洲。美國當局也開始考慮對人工智能進行監(jiān)管。比如,當?shù)貢r間4月19日,聯(lián)邦貿(mào)易委員會(Federal Trade Commission)便發(fā)文警告企業(yè)不要出售使用種族歧視算法,或可能“剝奪人們的就業(yè),住房,信貸,保險或其他福利”的人工智能系統(tǒng)。美國的其他地區(qū),如馬薩諸塞州,政府已采取措施,對警察使用面部識別進行限制。
如何看待加強監(jiān)管
這項法規(guī)是全球所有國家與地區(qū)的首次嘗試。根據(jù)斯坦福大學發(fā)布的《2021年人工智能指數(shù)報告》(Artificial Intelligence Index Report 2021)顯示,此前2015年至2020年間發(fā)布了117個AI倫理道德方面的文件,但只是“原則”層面,而不是“法規(guī)”層面。
根據(jù)《紐約時報》的報道,歐盟法規(guī)草案發(fā)布后,引起了不同的觀點與討論。許多業(yè)界團隊認為該法規(guī)沒有進一步加強管控,如釋重負,而民間社會組織則認為對AI的管控還可以更進一步。
許多人擔心該政策過于寬泛,為企業(yè)與技術開發(fā)者進行自我監(jiān)督留了很大的自由空間。
雖然歐盟將通過質量管理和評估程序嚴格管控,但一些人工智能技術供應商將被允許進行自我合規(guī)測評。數(shù)字權利組織 EDRi 的高級政策顧問 Sarah Chander 對 Politico 表示:“歐盟委員會將合規(guī)交給了人工智能供應商,這可能會損害(人們的)基本權利,甚至可能讓公共當局逍遙法外?!?nbsp;
來自倫敦Ada Lovelace研究所(主要研究人工智能倫理)的主任Carly Kind表示:“如果法規(guī)沒有規(guī)定嚴格的紅線與準則,也沒有標明可接受的界限,那么它會有很大的解釋空間?!?/p>
一些科技行業(yè)的工作人員則感到寬慰,對高風險應用的合規(guī)要求表示贊許。比如,計算機與通信行業(yè)協(xié)會(Computer & Communications Industry Association)的 Christian Borggreen 對法新社指出,歐盟委員會采用了基于風險的評估方法,這很好。該協(xié)會代表了包括亞馬遜、Facebook 和谷歌在內(nèi)的多家科技巨頭。
知名人工智能專家與風險投資人Mark Minevich認為,強調監(jiān)管AI是為了提高人類的生活水平,但監(jiān)管不應過度限制AI系統(tǒng)的實驗與開發(fā)。
他提到,高風險AI系統(tǒng)應該始終配有人為監(jiān)管與控制。而用于與人交互或內(nèi)容生成的AI系統(tǒng),無論是否屬于高風險,都應該遵守透明義務。
他也認為,這項法規(guī)草案會削弱歐洲的人工智能技術發(fā)展,而與此同時,中國與美國的人工智能技術正在飛躍發(fā)展。換言之,這項草案也許會束縛歐洲在AI方面的落地與創(chuàng)新,使歐洲落后于新的技術發(fā)展潮流。
Mark Minevich還提出:歐盟對AI的投資極少,是其在AI競賽上輸給美國與中國的主要原因。歐盟居住人口4.46億,美國居住人口3.31億,但在2020年,歐盟對AI的投入只有20億美元,而美國達到了236億美元。歐洲的風險投資模式落后于美國,導致歐洲許多快速發(fā)展的初創(chuàng)企業(yè)轉而依賴于美國與亞洲的投資者。
大家怎么看?
參考鏈接:
https://www.nytimes.com/2021/04/16/business/artificial-intelligence-regulation.html
https://techcrunch.com/2021/05/15/european-ai-needs-strategic-leadership-not-overregulation/
https://ec.europa.eu/commission/presscorner/detail/en/IP_21_1682
https://www.ftc.gov/news-events/blogs/business-blog/2021/04/aiming-truth-fairness-equity-your-companys-use-ai
https://www.nytimes.com/2021/02/27/technology/Massachusetts-facial-recognition-rules.html
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。