OpenAI 以 10 億美元出售「靈魂」,網(wǎng)友熱評不再「Open」
OpenAI 如何以 10 億美元的價格出售其靈魂:GPT-3 和 Codex 背后的公司并不像它聲稱的那樣開放。
當(dāng)金錢成為障礙時,最好的意圖可能會被破壞。
近日,一篇“How OpenAI Sold its Soul for $1 Billion”在 Reddit 上成為了網(wǎng)友熱議的話題。
Alberto Romero 的一篇文章追溯了 OpenAI 從非營利實體成為“營利上限”實體的歷史和發(fā)展,為了金錢出賣了自己原有的“為人類造?!钡淖谥肌?/p>
OpenAI 成立于 2015 年,是一家非營利性研究機(jī)構(gòu),它的愿景是構(gòu)建出安全、對人類有益的通用人工智能(AGI),由伊隆 · 馬斯克、Sam Altman 等人宣布出資 10 億美元成立。
短短4年時間,OpenAI 已經(jīng)成為全世界最具盛名的 AI 研究機(jī)構(gòu)。
2019 年,OpenAI 轉(zhuǎn)變成了一家名為 OpenAI LP 的營利性公司,由名為 OpenAI Inc 的母公司控制。這時的 OpenAI 成為了一家「利潤上限」機(jī)構(gòu),將投資回報限制在原始金額的 100 倍。也就是說,如果你投資 1000 萬美元,最多你會得到 10 億美元??雌饋砘貓舐什诲e。
在這種結(jié)構(gòu)改變幾個月后,微軟宣布注資 10 億美元。OpenAI 與微軟的合作關(guān)系是基于一個重要的前提,即微軟有權(quán)將 OpenAI 的部分技術(shù)商業(yè)化。正如我們在 GPT-3 和 Codex 上看到的那樣。今年 5 月末,微軟的官方網(wǎng)站便報道了他們用 GPT-3 的技術(shù)賦能內(nèi)部商業(yè)產(chǎn)品,為用戶服務(wù)。
當(dāng) OpenAI 因金錢關(guān)系與大型商業(yè)公司達(dá)成合作協(xié)議,還能相信他會信守承諾嗎?從最初的愿景出發(fā)開發(fā)展人工智能嗎?
AI Lab 金錢為上
OpenAI 是一個人工智能研究實驗室,但它的雄心和自身所擁有的資源相比天差地別。必須獲取足夠的資源支持,其中,金錢始終是排在了第一位。
在 GPT-3 論文橫空出世之后,外界的一個流行圍觀方式就是幫他們算成本,據(jù)估計 OpenAI 訓(xùn)練 GPT-3 耗費(fèi)了 1200 萬美元——僅僅是用于訓(xùn)練。
GPT-3 是一個大規(guī)模語言模型,光參數(shù)量就已達(dá)到 1750 億。如果沒有交易,他們很難獲得這么雄厚的研究經(jīng)費(fèi)。所以當(dāng) OpenAI 需要投資的時候,發(fā)現(xiàn)微軟當(dāng)時正等著給自己提供云計算服務(wù)。于是他們和擁有云服務(wù)的微軟形成了合作,至于代價,就是一種未公開的,將其系統(tǒng)商業(yè)化的晦澀許可。
這樣,一方可以獲得計算資源,一方可以達(dá)到盈利,真是一個雙贏的結(jié)果。
早在,2020年2月時,MIT Technology Review 記者 Karen Hao 的一篇調(diào)查文章探究了微軟與 OpenAI 的合作。披露了 OpenAI 與公開宣稱的內(nèi)容與內(nèi)部的運(yùn)營方式存在不一致之處,為什么一家以確保所有人擁有更美好未來為愿景的公司突然決定為「stay relevant」吸收大量私有資金?從非盈利到盈利的轉(zhuǎn)變引發(fā)了公眾甚至公司內(nèi)部的強(qiáng)烈批評。
艾倫人工智能研究所負(fù)責(zé)人 Oren Etzioni 表達(dá)了懷疑的態(tài)度:我不同意非盈利組織無法具備競爭力的觀點…… 如果規(guī)模更大、資金更充裕就能做得更好,那么今天 IBM 仍將是世界第一。
曾為 Vice News 撰稿的 Caroline Haskins 則不相信 OpenAI 仍會忠于它的使命:「人類從未因為依靠風(fēng)投機(jī)構(gòu)而變得更好。」
從技術(shù)角度來看,OpenAI 當(dāng)前的研究方向重點是需要更大算力與更大數(shù)據(jù)驅(qū)動的神經(jīng)網(wǎng)絡(luò),這就需要很多金錢的支持。只有比肩科技巨頭的投入才能在這條道路上走下去。但正如 Etzioni 所說的,金錢并不是在 AI 領(lǐng)域里實現(xiàn)最先進(jìn)成果的唯一途徑,有時需要創(chuàng)造性地思考新的想法,而不是靠堆更多的算力,或是更多的數(shù)據(jù)。
OpenAI 是如何沉淪的?
GPT-2、GPT-3「危險」語言生成器
2019 年初,已經(jīng)成為營利性公司的 OpenAI 發(fā)布了一個強(qiáng)大的語言生成模型——GPT-2,能夠生成接近人類的自然語言文本。盡管 GPT-2 在當(dāng)時是一個巨大的飛躍,但研究人員認(rèn)為其像一只“危險的怪獸”,所以不能開源出來。工程師們擔(dān)心 GPT-2 會被用來生成假新聞、垃圾信息和誤導(dǎo)信息。
但在不久之后,OpenAI 又認(rèn)為不存在明顯被濫用的證據(jù),因而將其開源出來。
羅格斯大學(xué)教授 Britt Paris 曾表示:「這看起來就像是 OpenAI 在利用人工智能可能給人類社會帶來的恐慌?!勾蠖鄶?shù)人把 GPT-2 的報道視為一種宣傳策略,他們認(rèn)為該系統(tǒng)其實并不像 OpenAI 聲稱的那樣強(qiáng)大。從營銷的角度來看這確實可以吸引注意力,但 OpenAI 否認(rèn)了這些指控。
如果 GPT-2 沒有 OpenAI 宣稱的那么強(qiáng)大,那為什么要讓它看起來比實際更危險呢?如果它真的性能強(qiáng)大,為什么僅僅因為「沒有發(fā)現(xiàn)被濫用的有力證據(jù)」而完全開源?無論如何,OpenAI 似乎都沒有遵循自己的道德標(biāo)準(zhǔn)。
2020 年 6 月,GPT-3 隨后以 API 的形式向外界提供。OpenAI 似乎認(rèn)為這個比 GPT-2 大 100 倍,更強(qiáng)大的新系統(tǒng)足夠安全,可以與世界分享。他們設(shè)置條款逐個審查每個訪問請求,但他們?nèi)匀粺o法控制系統(tǒng)最終用于什么目的。
他們甚至在文章中承認(rèn), 如果 GPT-3 落入壞人之手可能會發(fā)生一些問題。例如“誤導(dǎo)性信息、垃圾郵件、網(wǎng)絡(luò)釣魚、濫用法律、政府內(nèi)容,學(xué)術(shù)欺詐、社會工程,再到性別、種族和宗教偏見?!?/p>
他們認(rèn)識到了這些問題,但仍然決定讓用戶付費(fèi)測試。并且通過 API 發(fā)布,為什么要通過 API 發(fā)布它而不是開源模型?OpenAI 回答說,這是為他們正在進(jìn)行的AI 研究、安全和政策努力提供資金。
一句話總結(jié)就是:“負(fù)責(zé)”保護(hù)人類免受 AI 傷害的公司決定讓人們使用一個能夠制造虛假信息和危險偏見的系統(tǒng),這樣他們就可以負(fù)擔(dān)昂貴的維護(hù)費(fèi)用??雌饋磉@并不是什么「對所有人有益的價值」。
所以,當(dāng)時社交網(wǎng)絡(luò)上出現(xiàn) GPT-3 有害的討論就是順理成章的了。Facebook 人工智能負(fù)責(zé)人 Jerome Pesenti 寫了一條推文,在推文中舉了一個例子,談到 GPT-3 可能會生成加劇種族與性別歧視的文本。
在一項利用 GPT-3 獨特性的嘗試中,UC Berkeley 的計算機(jī)系學(xué)生 Liam Porr 讓系統(tǒng)寫了一篇能提高寫作效率的文章,并將其分享了出來。這篇文章騙過了很多人,甚至登上了 Hacker News 的榜首。試想,如果像他這樣沒有惡意的學(xué)生都能夠設(shè)法用 AI 寫的文章騙過所有人,一群懷有惡意的人會用它做什么?比如傳播假新聞?
除了傳播假新聞,另一個危害是傳播人類無法區(qū)分的假新聞。這一點也被 OpenAI 在一篇文章中認(rèn)可、甚至強(qiáng)調(diào)了:
人類在檢測 GPT-3 175B 生成的較長文章時的平均準(zhǔn)確率僅略高于 52%。這表明,GPT-3 能夠繼續(xù)生成人類難以區(qū)分的、長度約為 500 字的新聞文章。
Copilot潛在的法律問題
Codex and Copilot,侵權(quán)了嗎?
幾周前,OpenAI、GitHub和微軟聯(lián)合發(fā)布了 Copilot ,這是一個基于 Codex 之上的 AI 結(jié)對編程助手。
然而,卻引來了強(qiáng)烈批評,因為 Copilot 是用 GitHub 公共存儲庫的開源代碼盲目訓(xùn)練的。
以為用戶在 Hacker News 上指出了使用 Copilot 可能存在的法律問題,比如:
AI 生成的代碼屬于我還是 GitHub?
生成的代碼用什么許可證?
如果生成的代碼侵權(quán),誰來擔(dān)責(zé)或采取法律行動?
GitHub 首席執(zhí)行官 Nat Friedman 回答說成果屬于操作者,但是其他問題并未回應(yīng)。
另外,著名開源開發(fā)者 Armin Ronacher 也在 Twitter 上分享過 Copilot 抄襲大量受版權(quán)保護(hù)代碼的例子。
還有用戶稱,「有直接證據(jù)表明 Copilot 直接復(fù)制了 GPL 的大量代碼。證明這是在商業(yè)環(huán)境中使用的非常危險的工具?!?/p>
不過,最讓人想不通的是,Copilot 是在數(shù)千名開發(fā)人員生成的開源代碼上訓(xùn)練的,然后GitHub 或 OpenAI 又將這一系統(tǒng)出售給相同的開發(fā)人員使用。
對此,程序員兼游戲設(shè)計師 Evelyn Woods說,「這感覺就像是當(dāng)面嘲笑開源。」
我們還能寄希望于 OpenAI 嗎?
OpenAI 現(xiàn)在的真實愿景到底是什么?
他們是不是與微軟緊密相連,以至于忘記了自己「為人類進(jìn)步」而奮斗的初衷?還是說他們真的以為自己擁有最好的工具和人才來踐行這條路線,即使將靈魂出賣給一個大型科技公司也在所不惜?我們是否真的愿意讓 OpenAI 按照它的愿景來構(gòu)建未來?還是說我們希望我們的愿景更加多樣化,并將其與經(jīng)濟(jì)利益分離?
OpenAI在邁向更加復(fù)雜的人工智能道路上占據(jù)了主導(dǎo)地位,當(dāng)然,也有許多其他有潛力的機(jī)構(gòu)在做相關(guān)的工作,這些機(jī)構(gòu)并沒有與金錢產(chǎn)生直接的聯(lián)系,因而也受到了外界廣泛的關(guān)注。
就目前來看,大型科技公司的目標(biāo)似乎是并不是建立一個滿足科學(xué)好奇心的通用人工智能,也不是建立一個最安全、最負(fù)責(zé)、最道德的人工智能。他們的首要任務(wù)是賺錢!他們會不惜一切做到這一點,即使這意味要走上一條模糊的道路,而我們大多數(shù)人都會避開這一道路。
OpenAI 的聯(lián)合創(chuàng)始人馬斯克甚至也認(rèn)同這些批評:
馬斯克:我覺得 OpenAI 應(yīng)該再開放一點。
OpenAI 已經(jīng)不再“Open”
在 Reddit 上,Alberto Romero 的文章也引起了網(wǎng)友的討論。
網(wǎng)友紛紛稱:OpenAI 早已應(yīng)該更名為“ClosedAI”。
也許 OpenAI 公司扔在堅持他們最初的使命,但他們不能為了達(dá)到目的不擇手段。因為這些手段可能會損害更高的目的。
我們想要 AGI 嗎?從科學(xué)的角度來看,答案不可能是否定的。人們對于科學(xué)的好奇心是沒有極限的,然而,我們應(yīng)該時刻評估潛在的危險。核聚變是非凡的,但核彈不是。
我們想不惜一切代價實現(xiàn) AGI 嗎?從道德的角度來看,答案不可能是肯定的。這些快速發(fā)展的技術(shù)將對我們所有人產(chǎn)生影響,所以我們應(yīng)該注意到這個問題。
我們正在快速地更新這些深刻改變?nèi)藗兩畹募夹g(shù)。但是,如果只關(guān)心自己的利益和目標(biāo),無論是 OpenAI 還是其他人,最后都應(yīng)該對后果承擔(dān)很大的責(zé)任。
對此,你怎么看呢?
參考鏈接:
https://onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4
https://www.reddit.com/r/MachineLearning/comments/pizllt/d_how_openai_sold_its_soul_for_1_billion_the/
https://news.ycombinator.com/item?id=27676939
https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/
https://www.theverge.com/2019/11/7/20953040/openai-text-generation-ai-gpt-2-full-model-release-1-5b-parameters
https://syncedreview.com/2019/11/05/openai-releases-1-5-billion-parameter-gpt-2-model/
本文由AI科技大本營翻譯,轉(zhuǎn)載請注明出處。
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。
電子管相關(guān)文章:電子管原理