博客專欄

EEPW首頁 > 博客 > OpenAI 等死里逃生:加州 AI 法案剛剛被斃,LeCun 李飛飛吳恩達狂喜

OpenAI 等死里逃生:加州 AI 法案剛剛被斃,LeCun 李飛飛吳恩達狂喜

發(fā)布人:旺材芯片 時間:2024-10-02 來源:工程師 發(fā)布文章

圖片

重磅!今天凌晨,美加州州長 Gavin Newsom 正式宣告:否決 SB-1047 法案!圖片對于全世界開發(fā)者們來說,SB-1047 法案取消,意味著 Meta、谷歌等大廠的開源模型,再次繼續(xù)可用。這個決定可謂是眾望所歸。AI 圈大佬們激動地奔走相告,在否決中出了大力的吳恩達、LeCun、李飛飛,則尤其開心圖片圖片加州州長否決意味著什么?SB-1047 法案就真的終結了。「臭名昭著」的 SB-1047 規(guī)定,SB 1047 將會通過追究開發(fā)者的責任,來防止 AI 系統(tǒng)造成大規(guī)模人員傷亡,或引發(fā)損失超過 5 億美元的網(wǎng)絡安全事件。消息一出,就引來學界和業(yè)界巨大的反對聲浪。要知道,全球 50 家頂尖 GenAI 企業(yè),有 32 家便扎根在加州,它們在定義 AI 未來起著關鍵作用。加州辦公室新聞稿中介紹,過去一個月里,Gavin 簽署了 18 個 GenAI 法案,卻唯獨否決了 SB-1047。圖片在過去 30 天里,州長簽署了一系列法案,以打擊 Deepfake 內容,以及保護表演者的數(shù)字肖像權等等這項法案初衷是好的,但實際上存在一些嚴重的問題。他表示,我認為這不是保護公眾免受 AI 帶來真正威脅的最佳方法圖片
SB-1047 沒有考慮到 AI 系統(tǒng)是否部署在高風險環(huán)境中、是否涉及關鍵決策,或敏感數(shù)據(jù)使用。相反,法案對最基本的功能 —— 部署大模型系統(tǒng),也應用了嚴格的標準。
在 SB-1047 被否決的過程中,AI 教母李飛飛起到的作用不容忽視。斯坦福教授李飛飛開心地表示,自己能和 StanfordHAI 一起,為加州負責任的 AI 治理鋪平道路,深感榮幸。圖片AI 泰斗吳恩達也感謝了李飛飛對于 SB-1047 的公開反對,稱她的努力能推動更理性的 AI 政策,從而保護研究和創(chuàng)新。圖片就在前幾天,SB-1047 法案即將塵埃落定之際,吳恩達和 LeCun 還在焦急地奔走呼吁、發(fā)起投票,擔心一旦通過,開源 AI 和整個 AI 生態(tài)系統(tǒng)都會產(chǎn)生寒蟬效應。圖片如今,全加州的 AI 公司們終于松了一口氣。州長否決信:不予簽署
「本人謹此退回參議院法案 1047,不予簽署。」圖片全文地址:https://www.gov.ca.gov/wp-content/uploads/2024/09/SB-1047-Veto-Message.pdf在信中,州長承認,SB-1047 對于 AI 部署可能帶來的威脅過于放大了。而且,法案僅關注最昂貴的大規(guī)模模型,其實是給了公眾一種「錯誤的安全感」。他指出,即使是較小的專有模型,可能也會一樣危險。總之,法案對 AI 實施的監(jiān)管,是以「遏制利于公眾利益的創(chuàng)新」為代價的。州長表示,法案對最基本的功能,也適用最嚴格的標準,這并不是保護公眾買免受 AI 技術威脅的最佳辦法。而最好的解決辦法是,是一個不以 AI 系統(tǒng)和能力的實證發(fā)展軌跡分析為依據(jù)的方案。圖片AI 大佬深惡痛絕
這樣的結局,對于除了 Bengio、Hinton 的絕大多數(shù)人,都可謂非常圓滿。提到 SB-1047,一眾大佬們是深惡痛絕。事情的來龍去脈是這樣的。去年,加州州長簽署了一項行政命令,強調加州面對 GenAI 態(tài)度要更加審慎,讓 AI 更加道德、透明、可信。而今年 2 月,加州直接擬定了法案,名為《SB-1047 前沿 AI 大模型安全創(chuàng)新法案》,對于大模型安全、透明的使用給出了更具體的條例。圖片法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047然而,其中有多項不合理內容,簡直是指名道姓地給某些公司卡脖子。成本超 1 億的模型,得防止造成「重大傷害」比如有一條規(guī)定,開發(fā)、訓練成本超 1 億美元,且浮點運算超過 10^26 次的大模型,一旦開源后被有人用來做非法的事,那么模型開發(fā)商也會受到嚴重處罰。要知道,Meta 的 Llama 3 模型,谷歌的 Gemma 模型等,都符合這個條件。這個規(guī)定顯然極有爭議。比如,如果有人入侵自動駕駛系統(tǒng)并導致事故,開發(fā)該系統(tǒng)的公司也要被追責嗎?按照法案的說法,開發(fā)者需要評估其模型的衍生產(chǎn)品、防止他們可能造成的任何傷害,包括客戶微調模型、以其他方式修改模型(越獄)或與其他軟件組合。然而一旦開源軟件發(fā)布,人們可以直接將模型下載到個人設備上,因此開發(fā)者根本無從得知其他開發(fā)者或客戶的具體操作。圖片另外,法案中也有多處定義模糊。比如 AI 模型的「關鍵傷害」,被描述為大量傷亡、超過 5 億美元的損失或其他「同等嚴重」的傷害,但開發(fā)者在什么條件下要被追責?要承擔何種責任?法案對此都語焉不詳。并且,法案適用于花費超過 1 億美元訓練的 AI 模型,或花費超過 1000 萬美元微調現(xiàn)有模型的開發(fā)者,也就讓許多小型科技公司落入被打擊范圍。SB-1047 還有一些不合理規(guī)定,比如如果公司開放模型給其他國家使用,還得提交客戶的所有資料,包括客戶的身份證、****號、賬號等。開發(fā)者還必須創(chuàng)建能夠解決 AI 模型風險的測試程序,并且必須每年聘請第三方審計員來評估其 AI 安全實踐。對于那些基于模型打造的 AI 產(chǎn)品,則需要制定相應的安全協(xié)議來防止濫用,包括一個關閉整個 AI 模型的「緊急停止」按鈕。法案被詬病:對真正的風險視而不見更多批評者認為,這個法案實在是過于杞人憂天了。它不僅會阻礙 AI 的創(chuàng)新,而且對當今 AI 的安全性也沒有幫助。更諷刺的是,法案用所謂的「緊急開關」預防世界末日,但對 Deepfake、虛假信息等已出現(xiàn)的安全風險卻視而不見。雖然后來的修正案在措辭上更加寬松,減少了加州政府追究 AI 實驗室責任的權力。但即便如此,SB-1047 也會給 OpenAI、Meta、谷歌等大廠帶來不小的影響。而對一些初創(chuàng)企業(yè)來說,這種打擊甚至會是毀滅性的。如今塵埃落地,大公司和小初創(chuàng)們都可以長出一口氣了。圖片圖靈巨頭決裂SB-1047,甚至讓圖靈三巨頭為此「決裂」。LeCun、李飛飛、吳恩達為代表的大佬們,多次公開反對不滿。圖片圖片圖片甚至,LeCun 還照搬了之前要求暫停 AI 研究時的原梗 —— 請暫停 AI 立法六個月!圖片而圖靈三巨頭中的另外兩位 —— Yoshua Bengio 和 Geoffrey Hinton,卻出人意料地強烈支持這項法案通過。甚至還覺得,現(xiàn)在的條款定得有些太過寬松了。圖片
作為高級人工智能技術和政策研究人員,我們寫信表達對加州參議院法案 1047 的強烈支持。SB 1047 概述了對這種技術進行有效監(jiān)管的基本要求。它沒有實施許可制度,不要求公司在訓練或部署模型之前獲得政府機構的許可,它依賴于公司自行評估風險,甚至在發(fā)生災難時也不對公司嚴格追責。相對于我們面臨的風險規(guī)模,這是一項相對寬松的立法。取消該法案的基本措施將是一個歷史性的錯誤 —— 這一錯誤將在一年內變得更加明顯,因為下一代更強大的 AI 系統(tǒng)將被發(fā)布。
但 Bengio 和 Hinton 顯然不是主流。總結來說,各家科技巨頭和一眾大佬對此的立場如下。圖片

來源:新智元


*博客內容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: OpenAI

技術專區(qū)

關閉