馬斯克等千人聯(lián)名呼吁暫停研發(fā)更強(qiáng)大 AI,人工智能專家稱一些說(shuō)法“精神錯(cuò)亂”
北京時(shí)間 4 月 3 日上午消息,據(jù)報(bào)道,四名人工智能專家的研究結(jié)果被一封公開(kāi)信引用,公開(kāi)信獲得埃隆?馬斯克聯(lián)合簽名并要求緊急暫停研究人工智能,專家們對(duì)此表示擔(dān)憂。
本文引用地址:http://m.butianyuan.cn/article/202304/445203.htm截至當(dāng)?shù)貢r(shí)間上周五,這封日期為 3 月 22 日的公開(kāi)信已獲得超過(guò) 1800 個(gè)簽名。信中呼吁,在開(kāi)發(fā)比微軟支持的人工智能研究公司 OpenAI 新 GPT-4“更強(qiáng)大”的系統(tǒng)過(guò)程應(yīng)中斷 6 個(gè)月時(shí)間。GPT-4 可以進(jìn)行類似人類的對(duì)話、作曲并總結(jié)冗長(zhǎng)的文件。
自從 GPT-4 的前身 ChatGPT 于去年發(fā)布以來(lái),競(jìng)爭(zhēng)對(duì)手也競(jìng)相推出類似產(chǎn)品。
公開(kāi)信中說(shuō),具有“人類競(jìng)爭(zhēng)智能”的人工智能系統(tǒng)對(duì)人類具有深遠(yuǎn)的風(fēng)險(xiǎn),信中引用了專家的 12 項(xiàng)的研究結(jié)果,這些專家包括大學(xué)學(xué)者,以及 OpenAI、谷歌及其子公司 DeepMind 的現(xiàn)任和前任員工。
此后,美國(guó)和歐盟的民間社會(huì)團(tuán)體一直向立法者施壓,要求約束 OpenAI 的研究。OpenAI 沒(méi)有立即回應(yīng)記者的置評(píng)請(qǐng)求。
公開(kāi)信由未來(lái)生命研究所發(fā)出,而該研究所主要馬斯克基金會(huì)資助。批評(píng)人士指責(zé)研究所優(yōu)先考慮想象中的世界末日?qǐng)鼍?,而忽略人工智能帶?lái)的更緊迫的擔(dān)憂,比如編程到機(jī)器中的種族主義或性別歧視偏見(jiàn)。
信中引用的研究包括瑪格麗特?米歇爾 (Margaret Mitchell) 合著的著名論文《論隨機(jī)鸚鵡的危險(xiǎn)》。她本人曾在谷歌負(fù)責(zé)人工智能倫理研究,現(xiàn)在是人工智能公司 Hugging Face 的首席倫理科學(xué)家。
但米歇爾本人批評(píng)了這封信,并表示目前還不清楚什么東西“比 GPT4 更強(qiáng)大”?!斑@封信將許多值得商榷的想法視為假定事實(shí),信中提出了一系列有利于未來(lái)生命研究所支持者的人工智能優(yōu)先事項(xiàng)和敘述”,她說(shuō),“現(xiàn)在,我們沒(méi)有特權(quán)忽視主動(dòng)傷害。”
米歇爾的合著者蒂姆尼特?格布魯(Timnit Gebru)和艾米麗?M?本德(Emily M. Bender)也在 Twitter 上批評(píng)了這封信,后者稱信中一些說(shuō)法“精神錯(cuò)亂”。
未來(lái)生命研究所總裁邁克斯?泰格馬克(Max Tegmark)則表示,這一舉動(dòng)并不是為了試圖阻礙 OpenAI 的企業(yè)優(yōu)勢(shì)。
“這太搞笑了。我看到有人說(shuō),‘埃隆?馬斯克正試圖減緩競(jìng)爭(zhēng),’”他說(shuō),并補(bǔ)充表示,馬斯克沒(méi)有參與起草這封信?!斑@件事關(guān)乎的不是一家公司?!?/p>
目前的風(fēng)險(xiǎn)
康涅狄格大學(xué)的助理教授施里?多里-哈科恩(Shiri Dori-Hacohen)也對(duì)信中提到她的研究提出了異議。去年她與他人合著了一篇研究論文,論文認(rèn)為人工智能的廣泛使用已經(jīng)帶來(lái)了嚴(yán)重的風(fēng)險(xiǎn)。
她的研究認(rèn)為,今時(shí)今日人工智能系統(tǒng)的應(yīng)用可能會(huì)對(duì)氣候變化、核戰(zhàn)爭(zhēng)和其他威脅生存相關(guān)的決策產(chǎn)生影響。
她表示:“人工智能不需要達(dá)到人類水平就會(huì)加劇這些風(fēng)險(xiǎn)?!?/p>
“有些非生存風(fēng)險(xiǎn)也真的非常非常重要,但這些風(fēng)險(xiǎn)沒(méi)有得到高度重視。”
當(dāng)被問(wèn)及如何評(píng)論這些批評(píng)意見(jiàn)時(shí),未來(lái)生命研究所總裁泰格馬克表示,應(yīng)該認(rèn)真對(duì)待人工智能的短期和長(zhǎng)期風(fēng)險(xiǎn)。
“如果我們引用某人的話語(yǔ),這只是意味著我們認(rèn)為他們贊同這句話。這并不意味著他們認(rèn)可這封信,或者我們認(rèn)可他們的所有想法,”他說(shuō)。
公開(kāi)信中引用的另一個(gè)專家是總部位于加州的人工智能安全中心主任丹?亨德里克斯 (Dan Hendrycks)。他支持信中內(nèi)容,并表示,考慮黑天鵝事件是明智的。黑天鵝事件是指那些看起來(lái)不太可能發(fā)生,但會(huì)產(chǎn)生毀滅性后果的事件。
公開(kāi)信還警告稱,生成式人工智能工具可能被用來(lái)在互聯(lián)網(wǎng)上充斥“宣傳和謊言”。
多里-哈科恩表示,馬斯克簽署這份公開(kāi)信“相當(dāng)富有”,他援引民間社團(tuán)組織 Common Cause 等機(jī)構(gòu)記錄的消息稱,在馬斯克收購(gòu) Twitter 平臺(tái)后,Twitter 上的錯(cuò)誤信息有所增加。
Twitter 將很快推出針對(duì)訪問(wèn)其研究數(shù)據(jù)的一種新的收費(fèi)架構(gòu),這可能會(huì)阻礙對(duì)該主題的研究。
“這直接影響了我的實(shí)驗(yàn)室工作,以及其他研究錯(cuò)誤和虛假信息的人的工作,” 多里-哈科恩說(shuō)。“我們受到了束縛?!?/p>
馬斯克和 Twitter 沒(méi)有立即回應(yīng)置評(píng)請(qǐng)求。
評(píng)論