OpenAI陷入安全危機(jī):攻擊者成功入侵內(nèi)部消息系統(tǒng)
位于舊金山的人工智能巨頭OpenAI,近日陷入了一場(chǎng)安全危機(jī)。據(jù)外媒報(bào)道, 2023年年初OpenAI發(fā)生安全事件,攻擊者成功入侵OpenAI的內(nèi)部消息系統(tǒng),竊取了有關(guān)該公司人工智能技術(shù)和研究材料的敏感討論,但黑客并未進(jìn)入托管人工智能源代碼的服務(wù)器。
本文引用地址:http://m.butianyuan.cn/article/202407/460755.htm由于沒(méi)有泄露客戶數(shù)據(jù),OpenAI并沒(méi)有披露本次安全事件,也沒(méi)有向任何執(zhí)法部門報(bào)告,只是在去年4月的全體員工大會(huì)上通報(bào)了這一漏洞。這一事件不僅暴露了OpenAI在網(wǎng)絡(luò)安全方面的潛在漏洞,更引發(fā)了外界對(duì)人工智能技術(shù)安全性的廣泛擔(dān)憂。
本次安全事件導(dǎo)致員工質(zhì)疑OpenAI對(duì)安全的重視程度,且成為新的導(dǎo)火索,導(dǎo)致了內(nèi)部員工出現(xiàn)分裂。OpenAI原技術(shù)項(xiàng)目經(jīng)理Leopold Aschenbrenner曾向董事會(huì)發(fā)送備忘錄,提出了安全擔(dān)憂,認(rèn)為OpenAI在防止其技術(shù)機(jī)密被盜方面做得不夠。然而,他隨后被解雇,這一舉動(dòng)進(jìn)一步加劇了外界對(duì)OpenAI內(nèi)部管理和安全策略的質(zhì)疑。
值得注意的是,OpenAI發(fā)言人Liz Bourgeois回應(yīng)稱Leopold的離職并非源于此,并表示“雖然我們和他一樣致力于打造安全的通用人工智能,但我們不同意他后來(lái)對(duì)我們的工作提出的許多說(shuō)法,包括他對(duì)我們安全措施的描述,尤其是這次入侵事件。在他加入公司之前,我們已經(jīng)解決了這個(gè)問(wèn)題,并向董事會(huì)報(bào)告?!?/span>
簡(jiǎn)單事實(shí)是,AI公司已經(jīng)成為非常有價(jià)值數(shù)據(jù)的看門人,包含三種數(shù)據(jù):高質(zhì)量的訓(xùn)練數(shù)據(jù)、大量用戶交互以及客戶數(shù)據(jù)。就像其他任何SaaS產(chǎn)品一樣,AI提供者具有特權(quán)訪問(wèn)權(quán)限,可能是一些枯燥的舊預(yù)算表或人員記錄,也可能是一些尚未發(fā)布的軟件代碼。AI公司突然成為這些機(jī)密的核心,這一行業(yè)的新穎性帶來(lái)了一個(gè)特殊風(fēng)險(xiǎn),因?yàn)锳I流程尚未被標(biāo)準(zhǔn)化或完全理解。
但也許更有價(jià)值的是OpenAI龐大的用戶數(shù)據(jù)庫(kù) —— 可能包含數(shù)十億與ChatGPT進(jìn)行的數(shù)百萬(wàn)話題的對(duì)話。今年5月,OpenAI表示已經(jīng)阻止了五次試圖濫用其AI模型進(jìn)行網(wǎng)絡(luò)欺騙活動(dòng)的行為,暴露了即便是行業(yè)巨頭也可能面臨嚴(yán)重的安全威脅。AI公司成為黑客攻擊目標(biāo)的新趨勢(shì),安全防護(hù)措施重要性凸顯,即使沒(méi)有嚴(yán)重?cái)?shù)據(jù)泄露,也應(yīng)引起關(guān)注。
這一事實(shí)表明,人工智能技術(shù)不僅面臨被竊取的風(fēng)險(xiǎn),還可能被惡意利用,對(duì)社會(huì)造成更廣泛的負(fù)面影響。如何在推動(dòng)技術(shù)創(chuàng)新的同時(shí),確保AI系統(tǒng)的安全性和可控性,成為了全球科技界和政策制定者需要共同面對(duì)的挑戰(zhàn)。
評(píng)論