生成式人工智能將如何影響網(wǎng)絡(luò)安全領(lǐng)域的技能差距
網(wǎng)絡(luò)安全領(lǐng)域的工作很熱門,而且需要合格的員工。根據(jù)美國國家標(biāo)準(zhǔn)與技術(shù)研究所匯編的數(shù)據(jù),2022年全球網(wǎng)絡(luò)安全工作者短缺340萬。僅在美國就有超過663000個網(wǎng)絡(luò)安全職位空缺。
ChatGPT等生成性人工智能工具的興起引發(fā)了新的問題,即這些工具是否有助于縮小或加劇就業(yè)差距。因此,許多專家將其視為一把雙刃劍。
一方面,攻擊者可以使用生成人工智能“大大降低網(wǎng)絡(luò)安全中的作惡成本”,IEEE高級會員林道莊說。
另一方面,生成型人工智能可能能夠加速軟件代碼和新工具的開發(fā),以挫敗網(wǎng)絡(luò)攻擊。
“這些大型語言模型是一個根本的范式轉(zhuǎn)變,”IEEE會員Yale Fox近日在《數(shù)據(jù)中心知識》雜志(https://www.datacenterknowledge.com/security/how-chatgpt-can-help-and-hinder-data-center-cybersecurity)上如此表示?!胺磽羧斯ぶ悄茯?qū)動的惡意攻擊的唯一方法是在防御中使用人工智能。數(shù)據(jù)中心的安全經(jīng)理需要提高現(xiàn)有網(wǎng)絡(luò)安全資源的技能,并尋找專門從事人工智能的新人群?!?/p>
目前,生成性人工智能對尋求招聘的網(wǎng)絡(luò)安全高管來說是福是禍的問題基本上是無法回答的。這并沒有阻止關(guān)于它可能如何改變網(wǎng)絡(luò)安全專業(yè)人員工作的更廣泛討論。
以下是專家們對生成性人工智能可能塑造網(wǎng)絡(luò)安全工作性質(zhì)的看法:
1. 軟件開發(fā)人員可能需要對人工智能生成的代碼進行更多的驗證和測試,更加強調(diào)質(zhì)量控制技能。IEEE高級會員Amol Gulhane指出,質(zhì)量控制人員需要獲得與評估生成人工智能模型性能相關(guān)的知識和技能。
Gulhane說:“他們需要了解與這些模型相關(guān)的局限性和偏見,識別潛在的漏洞,并根據(jù)預(yù)定義的標(biāo)準(zhǔn)和安全要求測試生成的輸出?!?/p>
2. 生成型人工智能可以減輕網(wǎng)絡(luò)安全專業(yè)人員面臨的文書工作和文件負擔(dān)。盡管網(wǎng)絡(luò)安全分析師的鍵盤技能以及他們細節(jié)能力在很大程度上得到了提升,但人們對該角色可能需要的大量文件卻關(guān)注較少。
IEEE高級會員Kayne McGladrey說:“這份文件可以采取多種形式,包括在誤報警報上進行標(biāo)注到寫下如何進行新型調(diào)查的文檔。雖然這些文檔具有巨大的組織價值,但它也是分析師執(zhí)行的最不受歡迎和耗時的任務(wù)之一。通過使用人工智能自動化任務(wù),如根據(jù)預(yù)定義格式匯總文本和生成報告,分析師可以顯著節(jié)省時間?!?/p>
3. 它可以加速新產(chǎn)品的安全缺陷測試,內(nèi)部安全專家試圖以開發(fā)人員沒有預(yù)料到的方式“破解”產(chǎn)品,這一過程被稱為red teaming。
“作為組織軟件開發(fā)生命周期的一部分,red teamers偶爾會被要求評估軟件組件的安全性,”McGladrey說,“不幸的是,這帶來了日程壓力;red teamers需要的時間越長,軟件發(fā)布到通用狀態(tài)的時間就越長,因此并非所有組織都遵循這種模式。”
了解更多:道德黑客幫助企業(yè)和軟件開發(fā)人員從不道德的人的角度看待問題。在產(chǎn)品向公眾發(fā)布之前,這是一項提高產(chǎn)品安全性的重要技能。在Innovation at Work博客上可了解更多道德黑客如何打擊網(wǎng)絡(luò)犯罪的內(nèi)容,https://innovationatwork.ieee.org/ethical-hacking-is-essential-to-fighting-cyber-crime/。
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。