谷歌發(fā)布計劃保護您免受人工智能威脅
Credit: JHVEPhoto / iStock Editorial / Getty Images Plus
隨著越來越多的組織開始采用生成人工智能(AI),谷歌(Google)希望我們都更加關(guān)注安全問題。為此,近日,這家科技巨頭發(fā)布了其安全人工智能框架(Secure AI Framework,SAIF),這是一種安全路線圖,盡管暫時只是一個粗略的路線圖。
以下是該框架的六個“核心要素(core elements)”的摘要:
▲ 要素1和2是關(guān)于首先擴大組織現(xiàn)有的安全框架,將人工智能威脅包括在內(nèi)。
▲ 要素3是關(guān)于將人工智能集成到防御人工智能威脅中,這令人不安地讓人想起核軍備競賽,無論這是否有意。
▲ 要素4是關(guān)于人工智能相關(guān)“控制框架”中統(tǒng)一性的安全優(yōu)勢。
▲ 要素5和6是關(guān)于不斷檢查、評估和實戰(zhàn)測試人工智能應(yīng)用程序,以確保它們能夠抵御攻擊,并且不會使您面臨不必要的風(fēng)險。
目前看來,谷歌主要只是希望組織將基本的網(wǎng)絡(luò)安全理念融入人工智能。正如谷歌云的信息安全主管Phil Venables告訴Axios的那樣,“即使人們在尋找更先進的方法,人們也應(yīng)該真正記住,你也必須掌握好基本知識?!?/p>
但隨著像ChatGPT這樣的生成性人工智能應(yīng)用程序的出現(xiàn),現(xiàn)在已經(jīng)出現(xiàn)了一些新的、獨特的安全問題。例如,安全研究人員已經(jīng)確定了一個潛在的風(fēng)險:“prompt injections”, 這是一種奇怪的人工智能利用形式,針對毫無戒心的人工智能聊天機器人插件的惡意命令在某個文本塊中。當(dāng)人工智能掃描prompt injections時,它會改變給人工智能的命令的性質(zhì)。
prompt injections只是谷歌特別表示希望幫助遏制的新型威脅之一。其他還包括:
▲ “Stealing the model”, 這是一種誘使翻譯模型泄露秘密的可能方式。
▲ “Data poisoning”, 即一個不良行為者故意用錯誤的數(shù)據(jù)破壞訓(xùn)練過程。
▲ “Constructing prompts”,可以提取最初用于訓(xùn)練模型的潛在機密或敏感逐字文本。
谷歌關(guān)于SAIF的博客文章顯示,這個框架正在被谷歌采用。至于“框架”的發(fā)布對更廣泛的世界意味著什么,它可能基本上一無所獲,但也可以作為一種標(biāo)準(zhǔn)。例如,美國政府的國家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)在2014年發(fā)布了一個更通用的網(wǎng)絡(luò)安全框架。這旨在保護關(guān)鍵基礎(chǔ)設(shè)施免受網(wǎng)絡(luò)攻擊,但它也具有很高的影響力,并被大多數(shù)接受調(diào)查的IT專業(yè)人士公認(rèn)為網(wǎng)絡(luò)安全的黃金標(biāo)準(zhǔn)。
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。