全新算法助機器學習抵抗干擾
機器學習模型受到攻擊將產(chǎn)生嚴重的后果,但如果對這一情形提前預防呢?就像人類針對即將到來的病毒去接種疫苗一樣。據(jù)澳大利亞聯(lián)邦科學與工業(yè)研究組織(CSIRO)官方網(wǎng)站消息,該機構(gòu)的一個研究團隊,日前開發(fā)了一套人工智能(AI)最新算法,可幫助機器學習抵御可能遇到的干擾。
本文引用地址:http://m.butianyuan.cn/article/201907/402344.htm機器學習是人工智能的核心,也是使計算機具有智能的根本途徑。機器學習主旨是讓計算機去模擬或?qū)崿F(xiàn)人類的學習行為,以獲取新的知識或技能,并重新組織已有的知識結(jié)構(gòu),使之不斷改善自身的性能。
機器學習雖然可以在大數(shù)據(jù)訓練中學到正確的工作方法,但它也很容易受到惡意干擾。通常攻擊者是通過輸入惡意數(shù)據(jù)來“欺騙”機器學習模型,導致其出現(xiàn)嚴重故障。
此次,開發(fā)出新算法的研究團隊——“Data61”機器學習小組領(lǐng)導者理查德·諾克表示,攻擊者會在進行圖像識別時,在圖像上添加一層干擾波,達到“欺騙”的目的,從而讓機器學習模型產(chǎn)生錯誤的圖像分類。
諾克及其團隊成員研發(fā)的新算法,通過一種類似疫苗接種的思路,可以幫助機器學習“修煉”出抗干擾能力。這是針對機器學習模型打造的防干擾訓練,譬如,在圖片識別領(lǐng)域,該算法能夠?qū)D片集合進行微小的修改或使其失真,激發(fā)出機器學習模型“領(lǐng)會”到越來越強的抗干擾能力,并形成相關(guān)的自我抗干擾訓練模型。
經(jīng)過此類小規(guī)模的失真訓練后,最終的抗干擾訓練模型將更加強大,當真正的攻擊到來之時,機器學習模型將具備“免疫”功能。
評論