OpenAI、谷歌等七家 AI 頭部企業(yè)承諾:將為人工智能內(nèi)容添加水印,開放第三方審查
IT之家 7 月 21 日消息,據(jù)路透社報道,美國政府今日宣布,已獲得多家人工智能頭部公司的自愿承諾,將對人工智能生成的內(nèi)容加水印等措施,以幫助提高技術(shù)的安全性。
本文引用地址:http://m.butianyuan.cn/article/202307/448883.htm亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和 OpenAI 這七家公司都同意提高其系統(tǒng)的安全性和透明度,包括允許第三方專家對其模型進行審查。
在發(fā)給 TechRadar 的一份聲明中,美國政府表示:“正在開發(fā)這些新興技術(shù)的公司有責任確保其產(chǎn)品的安全。為了充分發(fā)揮人工智能的潛力,美國政府鼓勵該行業(yè)堅持最高標準,以確保創(chuàng)新不會以犧牲美國人的權(quán)利和安全為代價。”
首先,這七家公司承諾在向公眾發(fā)布 AI 系統(tǒng)之前,對其進行內(nèi)部和外部安全測試,并與相關(guān)行業(yè)參與者、政府、學術(shù)界和公眾共享信息,以幫助管理人工智能風險。
這些公司還將致力于網(wǎng)絡(luò)安全投資和內(nèi)部威脅控制,以“保護專有和未發(fā)布的模型權(quán)重”,這對于驅(qū)動生成人工智能的數(shù)據(jù)模型的運行至關(guān)重要。他們還同意促進第三方調(diào)查并報告系統(tǒng)中的任何安全漏洞。
七家公司還同意采取措施提高公眾對其系統(tǒng)的信任,包括開發(fā)一種方法來確保讓人們知道,他們何時看到人工智能生成的內(nèi)容,例如水印或其他措施。這些公司還將優(yōu)先研究人工智能模型帶來的社會風險,包括可能導致的種族歧視和其他形式的偏見,以及“保護隱私”。
不過IT之家從公告中發(fā)現(xiàn),這些承諾都是相關(guān)企業(yè)自愿采取的措施,而且沒有違反的懲罰措施,因此并不能百分百保證嚴格執(zhí)行。
評論