基于傳感器內(nèi)神經(jīng)網(wǎng)絡(luò)的模擬-信息轉(zhuǎn)換技術(shù),可顯著降低傳感器功耗
據(jù)麥姆斯咨詢報(bào)道,近日,亞利桑那州立大學(xué)(Arizona State University)介紹了一種片上模擬-信息轉(zhuǎn)換技術(shù),該技術(shù)利用基于儲層計(jì)算范式的模擬超維計(jì)算,在本地傳感器內(nèi)處理心電圖(electrocardiograph,ECG)信號,并將射頻(RF)傳輸減少三個數(shù)量級以上。片上模擬-信息轉(zhuǎn)換器不是傳輸稀疏的ECG信號或提取的特征,而是通過一個附有人工神經(jīng)網(wǎng)絡(luò)的非線性存儲內(nèi)核來分析ECG信號,并傳輸預(yù)測結(jié)果。所開發(fā)的技術(shù)被證明可用于檢測敗血癥發(fā)作,并實(shí)現(xiàn)了超高的準(zhǔn)確度和能效,同時使用65nm CMOS原型測試芯片將傳感器功耗降低了159倍。
本文引用地址:http://m.butianyuan.cn/article/202211/440196.htm射頻傳輸是無線傳感器功耗產(chǎn)生的主要因素,因此,本地傳感器內(nèi)信號處理優(yōu)于連續(xù)射頻傳輸,尤其對于生物醫(yī)學(xué)傳感器。例如,低功率MedRadio傳輸器的功耗為67μW,明顯高于片上特征提取。雖然有幾種技術(shù)可以壓縮射頻傳輸,但壓縮比通常限制在<20倍。迄今為止,壓縮射頻傳輸?shù)姆椒ㄓ谢谙∈栊缘臄?shù)據(jù)壓縮算法、基于導(dǎo)數(shù)的自適應(yīng)采樣、過電平采樣和自適應(yīng)分辨率數(shù)字化。據(jù)報(bào)道,上述技術(shù)已將傳輸數(shù)據(jù)壓縮了2~16倍。與現(xiàn)有技術(shù)相比,研究人員提出將人工智能(artificial intelligence,AI)嵌入傳感器本身,以分析每個ECG片段,并僅傳輸預(yù)測分?jǐn)?shù),而不是ECG數(shù)據(jù)或提取的特征,以將射頻傳輸降低5000倍以上。
由于人工智能算法是計(jì)算密集型的,因此設(shè)計(jì)低能耗的傳感器內(nèi)神經(jīng)網(wǎng)絡(luò)具有挑戰(zhàn)性。在本項(xiàng)工作中,為了解決無線生物醫(yī)學(xué)傳感器中的能量瓶頸,研究人員提出了一種直接處理模擬ECG樣本的模擬信號處理神經(jīng)網(wǎng)絡(luò)。這項(xiàng)工作的主要貢獻(xiàn)是設(shè)計(jì)和演示了一種片上模擬分類器,其由一個儲層計(jì)算機(jī)(reservoir-computer,RC)和一個三層人工神經(jīng)網(wǎng)絡(luò)(artificial neural network,ANN)組成,用于處理模擬ECG片段。與數(shù)字基線(前端ADC和數(shù)字ANN)相比,能耗降低了13倍;與直接傳輸數(shù)字化ECG片段相比,傳感器總能耗降低了159倍。傳感器內(nèi)處理AI電路主要用于CMOS圖像傳感器,通過執(zhí)行片上特征提取來減少需要傳輸?shù)絺鞲衅魍獾臄?shù)據(jù)量。據(jù)研究人員所知,這項(xiàng)工作提出了第一個用于模擬-信息轉(zhuǎn)換的傳感器內(nèi)人工智能電路,以顯著降低可穿戴生理傳感器的傳輸能量,并延長此類無線傳感器的電池壽命。
傳統(tǒng)ECG傳感器與所提出的具有傳感器內(nèi)RC+ANN人工智能模塊的ECG傳感器對比
與傳輸所有數(shù)字化數(shù)據(jù)和數(shù)字基線的傳統(tǒng)傳感器技術(shù)的能耗比較
在這項(xiàng)工作中,MIMIC–III數(shù)據(jù)集的ECG信號被用于證明通過傳感器內(nèi)人工智能進(jìn)行模擬-信息轉(zhuǎn)換技術(shù)的可行性。然而,在實(shí)際的家庭監(jiān)護(hù)應(yīng)用中,所獲取的ECG信號可能包含偽影,在將ECG信號發(fā)送到RC+ANN組合之前,需要經(jīng)過具有帶通濾波模擬前端(analog front-end,AFE)的處理。AFE將消耗額外的功率,這將降低這項(xiàng)技術(shù)相對于傳輸所有傳感器數(shù)據(jù)的傳統(tǒng)方法的能耗優(yōu)勢。因此,傳感器內(nèi)人工智能技術(shù)將高能效的設(shè)計(jì)挑戰(zhàn)從傳輸轉(zhuǎn)移到了AFE。通過基于反相器的放大器設(shè)計(jì)和反相器堆疊可以潛在地提高AFE能源效率,以降低傳感器的總能耗。
本項(xiàng)工作在電路方面的限制是研究人員設(shè)計(jì)的電路比最先進(jìn)的基于SRAM的人工智能電路的面積效率低。這種面積限制主要是由于使用開關(guān)電容電路作為矩陣乘法的構(gòu)建塊,其面積效率低于SRAM單元。本設(shè)計(jì)中使用的金屬對金屬(metal-on-metal)電容器的面積密度(以fF/μmm2表示)沒有晶體管的面積密度大,因此SRAM電路相對于RC+ANN的面積效率優(yōu)勢可能會隨著CMOS技術(shù)的擴(kuò)展而增大。由于輸入層和存儲層中的計(jì)算可能是非線性的,所以提高RC+ANN的面積效率的潛在解決方案是在輸入層和存儲層中采用SRAM陣列進(jìn)行矩陣乘法,并且僅在需要更高線性度的情況下使用開關(guān)電容電路進(jìn)行基于ANN的讀出。
用于分析ECG信號的儲層計(jì)算機(jī)的電路示意圖
論文信息:
https://www.nature.com/articles/s41598-022-23100-4
來源:MEMS
評論