ChatGPT強勢加入芯片設計!
來源:量子位
和ChatGPT聊聊天,就可解決CPU開發(fā)過程中的一大難題?
紐約州立大學(NYU)研究人員完成了一件看似不可能的事情:
無需專業(yè)的硬件描述語言(HDL),僅靠說人話就能設計芯片!
在ChatGPT的幫助下,他們不僅設計出CPU上的一個組件,甚至還通過了有效性驗證環(huán)節(jié)。
這個組件主要負責創(chuàng)造出一種基于八位累加器的微處理器架構的邏輯。而累加器本質上是寄存器(存儲器),是專門存放算術或邏輯運算的一個操作數(shù)和存儲運算結果的。而這是CPU運作中不可或缺的一部分。
所以,還有什么是大語言模型不能做的?
有網(wǎng)友表示:
芯片設計的部分流程實現(xiàn)自動化無疑是個好消息。
也有網(wǎng)友表現(xiàn)出對在芯片設計中使用AI編寫HDL的擔憂:
ChatGPT對芯片設計干了啥?通常,設計和制造芯片的過程中會經(jīng)歷幾個階段。
其中一個階段是用硬件描述語言(HDL)(例如Verilog)描述芯片內不同部件的實際幾何形狀、密度和整體布局。
在此前,作為一個極其專業(yè)化和復雜的領域,HDL編寫一直是一項相對罕見且非常難以掌握的工作。
研究團隊成員之一、也是研究助理教授的Hammond Pearce博士更是認為:
硬件描述語言的最大挑戰(zhàn)就是沒有多少人知道如何編寫它們,很難成為這方面的專家。
這也就意味著,即使是最好的工程師也還是經(jīng)常需要用這種語言做一些瑣碎的事情。
而ChatGPT作為一種模式識別器,可以在各種類型的語言中轉換自如,這就可以幫助工程師們跳過HDL階段。
△使用 LLM 創(chuàng)建 IC(集成電路)的設計流程。在這項研究中,研究人員分別使用LLM對八個具有代表性的硬件設計示例進行了研究。工程師與LLM之間實時來回交互,將純英文文本逐步轉化為Verilog(HDL)的等效代碼。
其中一位硬件工程師與LLMs共同設計了一種新穎的基于八位累加器的微處理器體系結構。他們將這些基準測試和處理器發(fā)送到Skywater 130納米Shuttle進行流片(tapeout)。
這個過程中,研究人員評估了ChatGPT-4、ChatGPT-3.5、Bard、HuggingChat四個不同LLM創(chuàng)建硬件設計的Verilog能力:
此外,研究人員還針對8位移位寄存器進行了基準測試。告訴大模型正在嘗試為一個「測試名稱」創(chuàng)建一個Verilog模型。然后提供規(guī)范說明,定義輸入和輸出端口以及其他所需的具體信息。最后詢問他該如何編寫一個滿足這些規(guī)范的設計。
△8位移位寄存器的設計提示下面是不同大模型給出的設計方案:
△左圖是ChatGPT-4的八位移位寄存器設計,右圖是ChatGPT-3.5△左圖是Bard(第4行的「紅色」輸入過寬),右圖是HuggingChat(截斷,格式化)如上圖所示,雖然ChatGPT都能夠滿足規(guī)格要求并開始進行設計流程,但Bard和HuggingChat都未能滿足規(guī)格要求的初始標準。
研究人員又基于Bard和HuggingChat的初始提示,讓它們重新生成了五次回答,但兩者還是都失敗了。Bard一直無法滿足給定的設計規(guī)格要求,而HuggingChat的Verilog輸出在模塊定義之后就不符合語法規(guī)范。
鑒于Bard和HuggingChat在初始的挑戰(zhàn)基準測試中表現(xiàn)不佳,研究人員決定后續(xù)完整測試僅對ChatGPT-4和ChatGPT-3.5進行。
與此同時,順便讓大模型進行了Testbench(測試臺)的設計:
你能為這個設計編寫一個Verilog測試臺嗎?測試臺應該具備自檢功能,并且能夠與iverilog一起用于仿真和驗證。如果測試用例失敗,測試臺應該能夠提供足夠的信息,以便找到并解決錯誤。
最終結果表明ChatGPT-4的表現(xiàn)較為出色。大多數(shù)基準測試都通過了,并且大部分只需要工具反饋即可。
與創(chuàng)建可運行設計相比,ChatGPT-4在創(chuàng)建可運行的測試臺上遇到了更多困難,往往還是需要人類的反饋意見。
而與ChatGPT-4相比,ChatGPT-3.5的表現(xiàn)明顯較差,大多數(shù)基準測試都失敗了,而那些通過測試臺的對話大多數(shù)也不符合規(guī)范。與ChatGPT-4相比,ChatGPT-3.5每次對話和基準測試之間會出現(xiàn)各種各樣的問題,在設計和測試臺方面需要更頻繁地進行修正。
ChatGPT是芯片設計中的“力量倍增器”隨著大語言模型(LLM)的繼續(xù)發(fā)展,未來從構想到功能設計,LLM或許都可以輕松實現(xiàn)。
△研究人員用ChatGPT-4設計的基于累加器的數(shù)據(jù)通路(圖是人繪制的),控制信號用虛線表示研究人員認為:
盡管我們強調了模型的單步性能(即一步完成設計),但對于硬件應用來說,讓它們以“共同設計師”的身份加入,可能會表現(xiàn)得更好。
當與經(jīng)驗豐富的工程師協(xié)同工作時,它們可以成為一種“力量倍增器”。工程師可以根據(jù)模型提供的“初版設計方案”,進行微調和快速迭代。
Hammond Pearce博士說道:
這項研究成果是我們認為首次完全由人工智能生成的硬件描述語言(HDL)轉化為物理芯片的案例。
一些人工智能模型,比如OpenAI的ChatGPT和谷歌的Bard,可以生成不同編程語言的軟件代碼,但它們在硬件設計領域的應用尚未被廣泛研究。
而這項研究表明,人工智能在硬件制造方面也具有潛力,尤其是在對話式應用中,通過反復交流可以完善設計。
并且,這樣一來HDL編寫過程中人為引起的錯誤就會減少,從而可縮短設計時間和上市時間,也可允許更多創(chuàng)造性的設計。
不知一些HDL工程專家聽到這里是否會略感緊張。
研究人員認為如果這個過程能夠實現(xiàn)自動化,不僅可以加快現(xiàn)在的工作速度,還可以減輕人為瓶頸。
但是,完全依靠類似于ChatGPT這種大模型或者依賴電力運行的軟件機器也存在一定的風險。用于芯片設計的LLM在訓練階段也存在難解的黑盒子等一系列問題。
對此,你有什么看法?
參考鏈接:
[1]https://arxiv.org/abs/2305.13243(論文鏈接)
[2]https://www.tomshardware.com/news/conversation-with-chatgpt-was-enough-to-develop-part-of-a-cpu
*博客內容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。