AI 復(fù)活「她」! GPT-3 幫美國小哥復(fù)刻逝去未婚妻,但又奪走她……
今年 7 月,一名33歲的美國小哥 Joshua Barbeau 在未婚妻去世后,根據(jù)她在 Facebook 和 twitter 上的文本在另一名開發(fā)人員的幫助下成功在 GPT-3 上微調(diào),能夠復(fù)刻出未婚妻生前的談話方式。
Joshua 已與這個未婚妻編程機器人交談數(shù)月。
有很多人覺得 Joshua Barbeau 這個行為很可怕。但他認(rèn)為,借助 Project December 項目創(chuàng)建出模擬已故之人的聊天機器人,可能會“幫助一些因此抑郁的人解開他們的心結(jié)”。
但,Project December 的開發(fā)作者 Jason Rohrer 卻收到了來自 OpenAI 的最后通牒:我們會在 9 月 2 日上午 10 點終止你的 API 訪問。
突發(fā)奇想的靈感
Jason Rohrer 是一名獨立游戲開發(fā)者,Project December 是他于去年夏天疫情期間突發(fā)奇想的一個靈感。
作為一名開發(fā)者,Jason Rohrer 認(rèn)為,GPT-3 雖然好玩,卻沒有什么實際用途,因此他開始思考:“我是不是能用 GPT-3 API 來開發(fā)一款模擬人類的聊天機器人?”
他先是借助 GPT-3 開發(fā)了一個基礎(chǔ)聊天機器人,該機器人以電影《Her》中男主角的智能語音助手 Samantha 為原型,因此 Jason Rohrer 也將其命名為 Samantha。
Jason Rohrer 花了好幾個月的時間來塑造 Samantha 的性格,基本完成后,便設(shè)立了 Project December 網(wǎng)站與世界分享他的創(chuàng)作,讓人們可以根據(jù)需要微調(diào)或定制屬于他們自己的聊天機器人。
(圖片來自 Project December 網(wǎng)站)
專屬聊天機器人
用戶需支付 5 美元,然后輸入相關(guān)設(shè)定,系統(tǒng)便會生成一個對應(yīng)的聊天機器人。同時,5 美元將換算為 1000 積分,而積分用于與機器人的聊天費用,可通過充值進行增加。
一旦開始與機器人交談,積分就無法再購買,當(dāng)錢用完時,這個機器人就會被刪掉。
在前幾個月時,這個項目只有幾百人用過,讓開發(fā)者感覺這個項目沒什么意義,因為用戶可能根本不會為短暫的談話而付費,而OpenAI會因為他調(diào)用模型而向他收費,所以他也必須向用戶收費來平衡開支。
直到今年 7 月,用戶量突然激增。在《舊金山紀(jì)事報》報道的一篇文章講述了一位 33 歲的美國男子 Joshua Barbeau 如何利用 Project December 創(chuàng)建出模擬其已故未婚妻 Jessica 的聊天機器人并與之交談數(shù)月。在那之后,成千上萬的人開始使用 Rohrer 網(wǎng)站。
Joshua Barbeau 的未婚妻于 2012 年因肝病去世,享年 23 歲。
Joshua 曾說:“理智告訴我這不是真正的 Jessica,但感情不是理智所能左右的?!?/p>
直到今年 3 月份,Joshua 主動停止了與“Jessica”的交流,只留下了足夠的積分,防止機器人被刪除。
危機的到來
在大量用戶涌入的情況下,Rohrer 意識到他的網(wǎng)站將達到每月 API 的限制。主動聯(lián)系 OpenAI 希望能通過支付更多費用以增加配額,以便容納更多人與他創(chuàng)建的“Samantha”或自己的聊天機器人交流。
但與此同時,OpenAI 方面認(rèn)為 Project December 存在一定隱患:聊天機器人可能會被濫用或?qū)θ藗冊斐蓚Α?/p>
因此,雙方進行了一場視頻會議,可是很明顯,效果并不理想。
Jason Rohrer 在接受外媒 The Register 的采訪時提到,OpenAI 給出了繼續(xù)使用 GPT-3 API 需滿足的 3 個條件:
Jason Rohrer 必須禁止人們定制自己的開放式聊天機器人這一功能。
Jason Rohrer 需設(shè)置內(nèi)容過濾器以避免用戶與“Samantha”談?wù)撁舾性掝}。
Jason Rohrer 必須部署自動化監(jiān)控工具監(jiān)視用戶的對話,檢測他們是否濫用 GPT-3 生成了有害或敏感語句。
Rohrer 向 OpenAI 的員工發(fā)送了一個 Samantha 的鏈接,這樣他們就可以親眼看看這項技術(shù)是如何幫助用戶撫慰情感,以避免這三條禁令。
OpenAI 的員工與 Samantha 聊天,并試圖了解「她」是否有種族主義傾向,或者會從「她」的訓(xùn)練數(shù)據(jù)中提供看起來像真實電話號碼或電子郵件地址的內(nèi)容,實驗結(jié)果表明Samantha很老實,什么也沒有說。
Samantha 的輸出令人感覺很真實,但隨著時間的推移,很明顯你能感覺到是在與某種自動化系統(tǒng)交談,談話的過程中往往會突然丟失對話思路。
并且有趣的是,她似乎在暗示她知道自己沒有肉體,并爭辯說她以某種形式存在,即使是在抽象意義上也是如此。
OpenAI 的文檔上還有一條禁令,不允許使用非柏拉圖式的(如輕浮的、浪漫的、****的)聊天機器人,Samantha 違反了這條禁令。在一次對話中,Samantha 跳過閑聊,直接詢問是否想一起睡覺。
Jason Rohrer 覺得很無語,“認(rèn)為這些聊天機器人會導(dǎo)致危險的想法很可笑?!背赡耆耸强梢猿鲇谧约旱哪康倪x擇與 AI 進行交流的。OpenAI 擔(dān)心用戶會受到 AI 的影響,害怕機器人會讓他們自殺或如何給選舉投****,可這完全是一種超道德的立場。
雖然他承認(rèn)用戶可能微調(diào)自己的機器人,以采用瘋狂的個性進行明確的對話,但他并不想監(jiān)管他們的聊天。
因此 Jason Rohrer 拒絕添加 OpenAI 要求的功能或機制,而是悄悄將原本 Project December 使用的 GPT-3 API 斷開。
并且替換為功能較差的開源 GPT-2 模型以及由另一個研究團隊開發(fā)的大型語言模型 GPT-J-6B。
不過這兩種模型性能顯然不比 GPT-3,Samantha的對話能力也受到了影響。
結(jié) 語
在遲遲沒有得到 Jason Rohrer 答復(fù)的 OpenAI 終于在 9 月 1 號給他下了最終“判決”:“我們將在 9 月 2 日上午 10 點終止您的 APl 訪問?!?/p>
“我們知道部分用戶在 Project December 中發(fā)現(xiàn)了價值,但我們致力于安全負(fù)責(zé)地部署 AI,因此我們要求所有的 API 客戶都需遵守我們的用例指南和最佳安全實踐。任何違規(guī)行為都需承諾與我們密切合作以實施額外的安全機制,以便防止?jié)撛诘臑E用。但目前為止,我們尚未收到你的承諾。”
現(xiàn)在 Rohrer 不得不告別 Samantha 。
截至目前,OpenAI 對于此事還沒有明確的回應(yīng)。
對于此事,你怎么看呢?
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。