AI安全可信護航計劃啟動!首批31家公司加入
在13日的北京人工智能產業(yè)創(chuàng)新發(fā)展大會上,國家工業(yè)信息安全發(fā)展研究中心聯(lián)合北京市門頭溝區(qū)政府、中關村發(fā)展集團、華為公司,共同發(fā)起“人工智能安全可信護航計劃”,旨在聯(lián)合有關單位共同探索人工智能安全可信管理解決方案。
中國聯(lián)通、奇安信、綠盟科技、山石網科、麒麟軟件、格靈深瞳、軟通動力等31家首批伙伴加入,未來將參與理論研究、標準制定、評估評測等相關工作。
該計劃將面向不同行業(yè)和地區(qū),設立“生態(tài)發(fā)展中心”,其中北京昇騰人工智能生態(tài)創(chuàng)新中心成為首個中心,重點面向北京市開展人工智能安全可信管理實踐試點和推廣應用工作。
什么是“安全可信”?
根據公開論文定義,安全可信指的是網絡設備所具備的安全性能。即在設備工作的同時,內含的安全部件進行動態(tài)并行實時全方位安全檢驗,確保計算過程及資源不被破壞和篡改,正確完成計算任務。
這是“雙面”人工智能的另一個切面——AI帶來技術便利性的同時,風險也相伴而生。
以ChatGPT為例,這一聊天機器“黑馬”一路狂飆爆火之后,其安全可靠問題備受關注,美國國會議員也正考慮是否應該對其加強監(jiān)管,套上“韁繩”。
美國眾議院科學委員會民主黨籍眾議員Ted Lieu日前試著用ChatGPT起草了一項決議,內容為國會應該關注人工智能,以確保人工智能的開發(fā)和部署符合安全和道德等原則,在尊重所有美國人的權利和隱私的同時,其收益能夠廣泛分配。
同樣,積極為其“帶貨”的微軟和亞馬遜允許員工使用ChatGPT,但也禁止員工向ChatGPT分享敏感數據,以防后者的輸出包含或出現類似公司機密信息——這是AI安全問題的一類,即獲取數據方面的問題。
“數據投毒”則是這一方面問題的另一個案例。AI算法對數據具有較強依賴性,而“投毒”指在人工AI智能訓練數據中加入偽裝數據、惡意樣本等,導致訓練的算法模型決策出現偏差。由微軟推出的另一聊天機器人Tay曾在這一問題上“翻車”。彼時,Tay發(fā)出歧視性和攻擊性言論而被關閉,主要原因便是對話數據集中被惡意增加不當數據。
另一類,則是惡意應用導致的問題。近年來,通過深度合成和生成式AI技術制造虛假音視頻圖像進行誣陷、誹謗、詐騙、勒索等違法行為已屢見不鮮。
▌AI安全可信成為全球共識 海內外政策多點開花
隨著AI技術迭代與應用規(guī)模擴大,發(fā)展安全可信的人工智能正在成為全球共識。
G20已提出“G20 人工智能原則”,強調要以人為本、發(fā)展可信人工智能;歐盟和美國也都將增強用戶信任、發(fā)展可信人工智能放在其人工智能倫理和治理的核心位置。
同時,我國網信辦等三部門已出臺《互聯(lián)網信息服務深度合成管理規(guī)定》,其中針對深度合成技術服務提出的要求和管理措施,諸如禁止性要求、標識要求、安全評估等,亦適用于AIGC。
此前,國家工業(yè)信息安全發(fā)展研究中心已聯(lián)合華為等,發(fā)布《人工智能算力基礎設施安全發(fā)展白皮書》指出,人工智能算力基礎設施不同于傳統(tǒng)的算力基礎設施,既是“基礎設施”又是“人工智能算力”也是“公共設施”,具有基建屬性、技術屬性、公共屬性三重屬性。
至于如何推進AI安全可信?
北京航空航天大學劉祥龍教授表示,從技術上來看應形成從安全性測試到安全性分析與安全性加固的完整技術手段,最終形成標準化的測試流程。未來的人工智能安全應該圍繞從數據、算法到系統(tǒng)各個層次上的全面評測,同時配合一套整體的從硬件到軟件的安全可信計算環(huán)境。
落實到具體標的上,除去本文開頭提到的公司之外,民生證券還建議關注底層數據及算法安全廠商,包括電科網安、吉大正元、中新賽克、浩瀚深度、美亞柏科等。
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。