博客專欄

EEPW首頁 > 博客 > ChatGPT 太猖狂?OpenAI 欲打假并研發(fā)“文本水印”,網(wǎng)友吐槽:太“雞肋”!

ChatGPT 太猖狂?OpenAI 欲打假并研發(fā)“文本水印”,網(wǎng)友吐槽:太“雞肋”!

發(fā)布人:AI科技大本營 時間:2022-12-23 來源:工程師 發(fā)布文章
整理 | 蘇宓

出品 | CSDN(ID:CSDNnews)

這到底是人干的,還是 AI 干的?

隨著 AIGC 的爆火,在 ChatGPT、Stable Diffusion 模型的推動下,當下想要辨別我們所見的代碼、圖像、文章、小說、腳本、詩句、Debug 程序等內(nèi)容究竟是「真」還是「假」時,那可太難了。

只要其背后的“主謀”不外揚,外人也幾乎看不出來作品究竟是出自誰手。然而,往往越是這樣,就越容易造成學術(shù)造假、藝術(shù)界的混亂、版權(quán)的爭議等多種亂象。

為了減少這種情況的出現(xiàn),ChatGPT 的創(chuàng)建者 OpenAI 終究還是準備站出來填坑了。計算機科學教授 Scott Aaronson (目前是 OpenAI 的客座研究員)在德克薩斯大學奧斯汀分校的一次演講中透露,OpenAI 正在開發(fā)一種工具,用于對 AI 系統(tǒng)生成的內(nèi)容加個水印。每當系統(tǒng)(如 ChatGPT)生成文本時,該工具就會嵌入一個“不易察覺的水印”,以此顯示文本的來源。

圖片


圖片

人工智能需要束縛


事實證明,要控制像 ChatGPT 這樣的系統(tǒng)是很困難的。作為開發(fā)商,雖然 OpenAI 在 ChatGPT 政策規(guī)定寫道,當從其系統(tǒng)共享內(nèi)容時,用戶應明確表明它是由人工智能生成的,但現(xiàn)實使用過程中,OpenAI 可以控制 ChatGPT 不生成暴力、血腥有害的內(nèi)容,但是卻無法掌控它的使用者會將其應用到何處。

幾天前,知名編程問答網(wǎng)站 Stack Overflow 決定“封殺” ChatGPT,稱 ChatGPT 答案的正確率非常低,對整個網(wǎng)站以及尋求正確答案的用戶來說是有害的。例如,要求 ChatGPT 寫一個公眾人物的傳記,它可能會很自信地插入不正確的傳記數(shù)據(jù)。再比如要求它解釋如何為特定功能編寫軟件程序,它同樣可以生成可信但最終不正確的代碼。如果用戶被發(fā)現(xiàn)使用 ChatGPT 回答問題,他們可能會受到禁止繼續(xù)發(fā)帖的懲罰。

除此之外,與之前的許多文本生成系統(tǒng)一樣,ChatGPT 也會被用于編寫高質(zhì)量的網(wǎng)絡釣魚郵件和有害的惡意軟件,甚至會被用于考試作弊等等。

因此,但凡 ChatGPT 所到之處,便亟這樣一款工具進行束縛。


圖片

加水印的工作原理


過去,OpenAI 已經(jīng)有一種方法可以標記 DALL-E 生成的內(nèi)容 ,并在它生成的每個圖像中嵌入簽名。但是如今想要追蹤文本的來源,實則要困難得多。

那如何在文字上面加上追蹤或打上“水印”?

Scott Aaronson 教授認為,最有前途的方法是密碼學。

Scott Aaronson 表示,他在今年春天的學術(shù)休假期間,一直在 OpenAI 研究為 GPT 等文本模型的輸出內(nèi)容添加水印的工具。

對于“AI 水印”的設想,Scott Aaronson 在自己的博客中進行了詳解。其表示,“我們希望每當 GPT 生成一些長文本時,能夠在它的選詞上有一個不易察覺的秘密標記,你可以用它來證明,這是來自 GPT 生成的內(nèi)容。

那么這種水印到底是如何實現(xiàn)的?

Scott Aaronson 教授稱,對于 GPT 來說,每一個輸入和輸出都是一串 token(標記),可以是單詞,也可以是標點符號、單詞的一部分,或者更多--總共有大約 10 萬個 token。GPT 的核心是以先前 token 的字符串為條件,不斷地生成下一個要生成的 token 的概率分布。在神經(jīng)網(wǎng)絡生成分布后,OpenAI 服務器實際上會根據(jù)該分布或該分布的某些修改版本進行采樣,這取決于一個名為 "temperature"的參數(shù)。不過,只要 temperature 參數(shù)不為零,下一個 token 的選擇通常會有一些隨機性,這也是為什么你對 GPT 用同一段話提問,會得到不同的答案的主要原因。

OpenAI 的水印工具就像現(xiàn)有文本生成系統(tǒng)的一個 "包裝",利用在服務器層面運行的加密功能,"偽隨機 "地選擇下一個標記」,Scott Aaronson 說道。

從理論上,這個系統(tǒng)生成的文本對大家而言都是隨機的,但是任何擁有加密功能“鑰匙”的人能夠發(fā)現(xiàn)水印。

也許有人會好奇:如果 OpenAI 控制了服務器,那么為什么要費盡心思去做水?。繛槭裁床恢苯訉?GPT 的所有輸出存儲在一個巨大的數(shù)據(jù)庫中,然后如果大家想知道某些東西是否來自 GPT,就可以查閱該數(shù)據(jù)庫?

Scott Aaronson 贊同地說道,這樣的確可以做到的,甚至可能在涉及執(zhí)法或其他方面的高風險案件中必須這樣做。但這將引起一些嚴重的隱私問題,譬如你可以揭示 GPT 是否生成或未生成給定的候選文本,而不可能揭示其他人是如何使用 GPT 的?數(shù)據(jù)庫方法在區(qū)分 GPT 唯一生成的文本和僅僅因為它具有很高概率而生成的文本(例如,前一百個素數(shù)的列表)方面也存在困難。

當前,來自 OpenAI 工程師 Hendrik Kirchner 已經(jīng)構(gòu)建了一個工作原型,并希望將其構(gòu)建到未來 OpenAI 開發(fā)的系統(tǒng)中。

截至目前,據(jù)外媒 Techcrunch 報道,OpenAI 和 Aaronson 并未透露過多關(guān)于“水印原型”的信息,只是稱水印是他們正在探索的幾種 "注明出處技術(shù) "之一,以檢測人工智能產(chǎn)生的產(chǎn)出。


圖片

“水印”功能很“雞肋”?


不過對于這種技術(shù),業(yè)界也頗有爭議。

有人認為,該工具是基于服務器端的,這意味著它不一定適用于所有文本生成系統(tǒng)。他們認為,對于競爭對手來說,繞過它是微不足道的。

來自麻省理工學院的計算機科學教授 Srini Devadas 認為:"通過重新措辭、使用同義詞等來繞過它的篩查是相當容易的。"

OpenAI 的競爭對手 AI21 實驗室的聯(lián)合創(chuàng)始人兼聯(lián)合首席執(zhí)行官 Yoav Shoham 認為,水印并不足以幫助識別 AI 生成文本的來源。他呼吁采用一種 "更全面 "的方法,包括差異化水印,即對文本的不同部分進行不同的水印,以及更準確地引用事實文本來源的 AI 系統(tǒng)。

艾倫人工智能研究所的研究科學家 Jack Hessel 指出,很難在不知不覺中對人工智能生成的文本進行加注“水印”,因為每個 token 都是一個離散的選擇。太明顯的“水印”可能會導致選擇奇怪的詞,從而降低流暢性。不過,一個理想的“水印”是人類讀者無法辨別的,并能實現(xiàn)高度檢測。根據(jù)它的設置方式,由于“簽名”過程的運作方式,OpenAI 自己可能是唯一能夠自信地提供這種檢測的一方。

Scott Aaronson 也表示,該計劃只有在像 OpenAI 這樣的公司在擴展最先進系統(tǒng)方面處于領(lǐng)先地位的世界中才會真正起作用——而且他們都同意成為負責任的參與者。即使 OpenAI 與其他文本生成系統(tǒng)提供商(如 Cohere 和 AI21Labs)共享水印工具,也不會阻止其他人選擇不使用它。

雖然 OpenAI 帶來了 ChatGPT、GPT-3、Dell-2 這些極具創(chuàng)新性的產(chǎn)品,引發(fā)用戶的狂歡,但不少網(wǎng)友仍質(zhì)疑“AI 水印”的必要性:

@knaik94:

這似乎是在浪費能源。倘若一次生成的文本內(nèi)容很短,根本無法判斷它是否是由 AI 生成的。此外,我想在生成的內(nèi)容中再多走一步,如改寫某些內(nèi)容、使用同義詞和短語替換、統(tǒng)一標點符號或者一些輔助語法檢查/修飾符等工具,都可以逃避“AI 水印”的檢測。

況且行業(yè)也有一些開放性的替代方案,如 GPT2,已經(jīng)在 MIT 許可下發(fā)布。在 NSFW 文本上訓練的社區(qū)語言模型也已經(jīng)存在。在我看來,OpenAI 這樣的舉動從長遠來看只會把大多數(shù)人趕走。如果在未經(jīng)審查的足夠好模型和經(jīng)過審查的優(yōu)秀模型之間進行選擇,我會為 99% 的長期項目選擇足夠好的模型。

@norwalkbear :

現(xiàn)在很多人看到了人工智能的潛力。如果你限制太多,人們會開發(fā)自己的 AI 模型,甚至迫切需要 OpenAI 的開源替代品。

最后,看到 OpenAI 正在研發(fā)這樣的工具,也有網(wǎng)友強烈呼吁 OpenAI 遲幾年推出,譬如等到 2026 年 5 月,因為這個時候,他剛好畢業(yè)了。

你覺得給 AI 生成的內(nèi)容、作品加上水印能阻止濫用情況的發(fā)生嗎?

參考資料:

https://news.ycombinator.com/item?id=33892587

https://techcrunch.com/2022/12/10/openais-attempts-to-watermark-ai-text-hit-limits/

https://scottaaronson.blog/?p=6823


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。

電容式觸摸屏相關(guān)文章:電容式觸摸屏原理
電容屏相關(guān)文章:電容屏原理


關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉