深度學(xué)習(xí) 文章 進入深度學(xué)習(xí)技術(shù)社區(qū)
MCX N系列NPU智能驅(qū)動AI咖啡機,重塑咖啡研磨新境界!
- MCX N系列NPU, 作為先進的人工智能處理器,以其強大的計算能力和高效的算法優(yōu)化,不僅能夠處理復(fù)雜的圖像識別任務(wù),還能在咖啡研磨過程中實現(xiàn)精準(zhǔn)控制,確保每一??Х榷苟寄艿玫角〉胶锰幍奶幚怼锳I咖啡機注入了前所未有的智能動力!先說結(jié)論,利用150MHz MCX N的NPU去推理咖啡豆烘焙程度(39mS)比用400MHz的M7內(nèi)核推理(109mS)快了3倍!作為一名“咖市”的“MCU系統(tǒng)與應(yīng)用工程師”一直為研磨咖啡豆的顆粒度而感到苦惱,每次換豆都要浪費2次18克豆子去實現(xiàn)“18克豆,10bar,30秒內(nèi)
- 關(guān)鍵字: NPU AI咖啡機 深度學(xué)習(xí)
TFLite模型的開盲盒體驗
- TFLite模型的開盲盒體驗之flatbuffer格式介紹相信在嵌入式平臺上部署過神經(jīng)網(wǎng)絡(luò)模型的伙伴,都不會對TFLite格式陌生。TFLite是谷歌推出的一個輕量級推理庫,它的主要目標(biāo)是在移動端和嵌入式設(shè)備上部署深度學(xué)習(xí)模型。為了在這些設(shè)備上運行,需要將訓(xùn)練好的TensorFlow模型轉(zhuǎn)換成一種特殊的格式,這就是TensorFlow Lite模型。轉(zhuǎn)換過程包括模型轉(zhuǎn)化、部署和優(yōu)化三個步驟,旨在提升運算速度并減少內(nèi)存、顯存占用。具體來說,這其中最終要的就是以.TFLite為格式的模型文件,其主結(jié)構(gòu)為一個M
- 關(guān)鍵字: TFLite 模型 推理庫 深度學(xué)習(xí)
Firefly DL小巧輕便,嵌入式深度學(xué)習(xí)加速部署
- 近年來,機器視覺系統(tǒng)越來越多地基于可變條件進行自動化決策。開發(fā)這些系統(tǒng)所需的時間和精力可能會讓人望而卻步。而深度學(xué)習(xí)的出現(xiàn)正在改變這一局面,并使自動化決策觸手可及。開源庫、Nvidia硬件和FLIR相機等資源正在幫助實現(xiàn)這一變化。走進深度學(xué)習(xí)“一張圖片勝過千言萬語”這句話在機器視覺領(lǐng)域里從未像今天這樣真實。機器視覺可以將數(shù)千甚至數(shù)百萬行代碼用簡單地經(jīng)過圖片和少量編碼訓(xùn)練后的的神經(jīng)網(wǎng)絡(luò)所代替。深度學(xué)習(xí)是一種機器學(xué)習(xí)形式,它使用在輸入和輸出節(jié)點之間有許多“深層”層的神經(jīng)網(wǎng)絡(luò)。通過在大數(shù)據(jù)集上訓(xùn)練網(wǎng)絡(luò),可以創(chuàng)建
- 關(guān)鍵字: Firefly DL 深度學(xué)習(xí) 人工智能
基于深度學(xué)習(xí)的智能電網(wǎng)短期日負(fù)荷曲線預(yù)測系統(tǒng)設(shè)計與實現(xiàn)
- 短期電力負(fù)荷精準(zhǔn)預(yù)測對發(fā)電容量與輸電方式的合理調(diào)度、確保電力系統(tǒng)安全、穩(wěn)定運行起著至關(guān)重要的作用。本文針對負(fù)荷數(shù)據(jù)基數(shù)大、難提取、負(fù)荷預(yù)測影響因素多等問題,運用Mysql數(shù)據(jù)庫和Python爬蟲技術(shù)構(gòu)建了短期負(fù)荷曲線預(yù)測基礎(chǔ)數(shù)據(jù)平臺,提高了數(shù)據(jù)的存取效率;針對電力負(fù)荷的隨機波動性,運用Pandas、關(guān)聯(lián)分析算法完成了缺失值處理和影響因素與用電負(fù)荷的相關(guān)性分析;為提高預(yù)測精度,探索使用了融合卷積神經(jīng)網(wǎng)絡(luò)、長短期記憶網(wǎng)格和注意力機制的多元混合神經(jīng)網(wǎng)絡(luò)模型。
- 關(guān)鍵字: 202302 深度學(xué)習(xí) 短期負(fù)荷預(yù)測 卷積神經(jīng)網(wǎng)絡(luò) 長短期記憶網(wǎng)格 Flask
視覺慣性導(dǎo)航融合算法研究進展
- 視覺慣性導(dǎo)航一直是無人駕駛與機器人領(lǐng)域重點、難點環(huán)節(jié)。首先介紹經(jīng)典算法框架,從基于最優(yōu)平滑算法和預(yù)積分理論兩個層面介紹經(jīng)典視覺慣性融合算法。然后介紹新型算法框架,主要在深度學(xué)習(xí)基礎(chǔ)上,從對整體框架學(xué)習(xí)的程度,將新型視覺慣性融合算法分為兩類,部分學(xué)習(xí)和整體學(xué)習(xí),最后介紹了主流算法中關(guān)鍵技術(shù)與未來展望。
- 關(guān)鍵字: 202302 視覺慣性導(dǎo)航 優(yōu)化 耦合算法 深度學(xué)習(xí)
基于深度學(xué)習(xí)的跌倒檢測技術(shù)對比與分析*
- 基于意外跌倒是造成老年人受傷、失能及死亡的主要原因,對近年來關(guān)于深度學(xué)習(xí)的跌倒檢測研究進行了介紹。根據(jù)跌倒檢測工作流程,從數(shù)據(jù)采集、數(shù)據(jù)處理、模型訓(xùn)練及狀態(tài)識別幾個方面進行了詳細介紹,并對已有的基于深度學(xué)習(xí)的跌倒檢測方法進行分析與比較,為將來的應(yīng)用研究提供參考,并對將來的發(fā)展方向提出一些思考。
- 關(guān)鍵字: 深度學(xué)習(xí) 跌倒檢測 卷積神經(jīng)網(wǎng)絡(luò) 長短期記憶網(wǎng)絡(luò) 202212
深度學(xué)習(xí)模型的云邊協(xié)同訓(xùn)練和部署*
- 將云邊協(xié)同技術(shù)應(yīng)用到深度學(xué)習(xí)模型的訓(xùn)練和部署,可以解決目前工業(yè)質(zhì)檢領(lǐng)域深度學(xué)習(xí)模型訓(xùn)練和部署方法的不足,使模型的訓(xùn)練和部署更加安全、高效、智能化、低成本。
- 關(guān)鍵字: 云邊協(xié)同 深度學(xué)習(xí) 服務(wù)器部署 202212
一種改進的可遷移深度學(xué)習(xí)模型*
- 摘 要:本文設(shè)計了一種改進的可遷移深度學(xué)習(xí)模型。該模型能夠在離開可靠的訓(xùn)練環(huán)境(其中存在標(biāo)簽)并被 置于純粹的無標(biāo)簽數(shù)據(jù)的領(lǐng)域時,輸出依然可以持續(xù)得到改善,這種訓(xùn)練方式可以降低對監(jiān)督學(xué)習(xí)的依賴程度。關(guān)鍵詞:可遷移;深度學(xué)習(xí);無標(biāo)簽*基金項目:湖南省教育廳科學(xué)研究課題“基于深度學(xué)習(xí)的智能無人機目標(biāo)檢測算法研究”(20C0105);湖南省 自然科學(xué)基金項目《基于高光譜特征信息融合的油菜籽品質(zhì)參數(shù)反演與建模》(2021JJ60093);校級培育項目 “基于深度學(xué)習(xí)的目標(biāo)檢測算法研究”(22mypy15)1
- 關(guān)鍵字: 202210 可遷移 深度學(xué)習(xí) 無標(biāo)簽
基于圖結(jié)構(gòu)的圖像注意力網(wǎng)絡(luò)
- 摘要:雖然現(xiàn)已有許多關(guān)于圖像注意力機制的研究,但是現(xiàn)有的方法往往忽視了特征圖的全局空間結(jié)構(gòu)和空 間注意力與通道注意力的聯(lián)系。所以本文提出了一種基于整個空間拓?fù)浣Y(jié)構(gòu)的注意機制,將特征圖映射成結(jié)點 與特征的形式,再借助圖卷積網(wǎng)絡(luò)的特性,得以從整個空間學(xué)習(xí)特征權(quán)重圖。其次空間注意力與通道注意力一 體化結(jié)構(gòu)能夠更有效地學(xué)習(xí)特征權(quán)重。通過多個實驗測試表明,在圖像分類和人臉識別任務(wù)中,展現(xiàn)了優(yōu)異的 性能和普遍適用性。關(guān)鍵詞:深度學(xué)習(xí);注意力機制;圖像分類;人臉識別 隨著計算機性能的提升,卷積神經(jīng)網(wǎng)絡(luò) (co
- 關(guān)鍵字: 202207 深度學(xué)習(xí) 注意力機制 圖像分類 人臉識別
直覺有害!Facbook最新研究:易于解釋的神經(jīng)元會誤導(dǎo)DNN的學(xué)習(xí)
- 編譯|蔣寶尚 關(guān)于AI是什么,學(xué)界和業(yè)界已經(jīng)給出了非常多的定義,但是對于AI理解,探討尚不足。換句話說,計算機科學(xué)家解釋深度神經(jīng)網(wǎng)絡(luò)(DNNs)的能力大大落后于我們利用其取得有用結(jié)果的能力?! ‘?dāng)前理解深度神經(jīng)網(wǎng)絡(luò)的常見做法是在單個神經(jīng)元特性上“折騰”。例如,激活識別貓圖像的神經(jīng)元,而關(guān)閉其他神經(jīng)元的“控制變量法”。這種方法的學(xué)術(shù)術(shù)語叫做“類選擇性”?! ∮捎谥庇^和易理解,“類選擇性”在學(xué)界廣泛應(yīng)用。誠然,在訓(xùn)練過程中,這類可解釋的神經(jīng)元確實會“選擇性地”出現(xiàn)在各種不同任務(wù)網(wǎng)絡(luò)中。例如,預(yù)測產(chǎn)品評論
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí)
為什么深度學(xué)習(xí)如此容易被愚弄?AI研究員正努力修復(fù)神經(jīng)網(wǎng)絡(luò)缺陷
- 來源:nature 編譯:張大筆茹、小七 假設(shè)一輛自動駕駛汽車看到停車標(biāo)志時并沒有減速,而是加速駛?cè)肓朔泵Φ氖致房冢瑥亩鴮?dǎo)致了交通事故。事故報告顯示,停車標(biāo)志的表面粘了四個小的矩形標(biāo)志。這說明一些微小擾動就能愚弄車載人工智能(AI),使其將“停止”一詞誤讀為“限速45”?! ∧壳?,此類事件還未發(fā)生,但是人為擾動可能影響AI是非常現(xiàn)實的。研究人員已經(jīng)展示了如何通過粘貼紙來欺騙AI系統(tǒng)誤讀停車標(biāo)志,或者通過在眼鏡或帽子上粘貼印刷圖案來欺騙人臉識別系統(tǒng),又或者通過在音頻中插入白噪聲使語音識別系統(tǒng)產(chǎn)生錯
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí)
DNNBrain:北師大團隊出品的用于映射深層神經(jīng)網(wǎng)絡(luò)到大腦的工具箱
- 導(dǎo)讀深度神經(jīng)網(wǎng)絡(luò)(DNN)通過端到端的深度學(xué)習(xí)策略在許多具有挑戰(zhàn)性的任務(wù)上達到了人類水平的性能。深度學(xué)習(xí)產(chǎn)生了具有多層抽象層次的數(shù)據(jù)表示;然而,它沒有明確地提供任何關(guān)于DNNs內(nèi)部運作的解釋,換句話說它的內(nèi)部運作是一個黑盒子。深度神經(jīng)網(wǎng)絡(luò)的成功吸引了神經(jīng)科學(xué)家,他們不僅將DNN應(yīng)用到生物神經(jīng)系統(tǒng)模型中,而且還采用了認(rèn)知神經(jīng)科學(xué)的概念和方法來理解DNN的內(nèi)部表示。盡管可以使用諸如PyTorch和TensorFlow之類的通用深度學(xué)習(xí)框架來進行此類跨學(xué)科研究,但是使用這些框架通常需要高級編程專家和全面的數(shù)學(xué)知
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí) 腦機接口
CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))、DNN(深度神經(jīng)網(wǎng)絡(luò))的內(nèi)部網(wǎng)絡(luò)結(jié)構(gòu)的區(qū)別
- 先說DNN,從結(jié)構(gòu)上來說他和傳統(tǒng)意義上的NN(神經(jīng)網(wǎng)絡(luò))沒什么區(qū)別,但是神經(jīng)網(wǎng)絡(luò)發(fā)展時遇到了一些瓶頸問題。一開始的神經(jīng)元不能表示異或運算,科學(xué)家通過增加網(wǎng)絡(luò)層數(shù),增加隱藏層可以表達。并發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)的層數(shù)直接決定了它對現(xiàn)實的表達能力。但是隨著層數(shù)的增加會出現(xiàn)局部函數(shù)越來越容易出現(xiàn)局部最優(yōu)解的現(xiàn)象,用數(shù)據(jù)訓(xùn)練深層網(wǎng)絡(luò)有時候還不如淺層網(wǎng)絡(luò),并會出現(xiàn)梯度消失的問題。我們經(jīng)常使用sigmoid函數(shù)作為神經(jīng)元的輸入輸出函數(shù),在BP反向傳播梯度時,信號量為1的傳到下一層就變成0.25了,到最后面幾層基本無法達到調(diào)節(jié)參數(shù)
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí) CNN RNN
深度神經(jīng)網(wǎng)絡(luò)(DNN)模型與前向傳播算法
- 深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,以下簡稱DNN)是深度學(xué)習(xí)的基礎(chǔ),而要理解DNN,首先我們要理解DNN模型,下面我們就對DNN的模型與前向傳播算法做一個總結(jié)。 1.從感知機到神經(jīng)網(wǎng)絡(luò) 在感知機原理小結(jié)中,我們介紹過感知機的模型,它是一個有若干輸入和一個輸出的模型,如下圖: 輸出和輸入之間學(xué)習(xí)到一個線性關(guān)系,得到中間輸出結(jié)果: z=∑i=1mwixi+bz=∑i=1mwixi+b 接著是一個神經(jīng)元激活函數(shù): sign(z)={?11z<0z≥0sign(z)={
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí)
什么是DNN?它對AI發(fā)展意味著什么
- 為了讓AI加速器在最短延遲內(nèi)達到最佳精準(zhǔn)度,特別是在自動駕駛車中,TFLOP已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針,然而,有專家認(rèn)為這種野蠻處理方式并不可持續(xù)…… 為了讓人工智能(AI)加速器在最短延遲內(nèi)達到最佳精準(zhǔn)度,特別是在自動駕駛車(AV)中,TFLOP(兆次浮點運算)已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針。這場競賽的選手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自動駕駛(FSD)計算機芯片,以及NXP-Kalray芯片。然而,有專家認(rèn)為這種野蠻處理方式
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí)
深度學(xué)習(xí)介紹
您好,目前還沒有人創(chuàng)建詞條深度學(xué)習(xí)!
歡迎您創(chuàng)建該詞條,闡述對深度學(xué)習(xí)的理解,并與今后在此搜索深度學(xué)習(xí)的朋友們分享。 創(chuàng)建詞條
歡迎您創(chuàng)建該詞條,闡述對深度學(xué)習(xí)的理解,并與今后在此搜索深度學(xué)習(xí)的朋友們分享。 創(chuàng)建詞條
關(guān)于我們 -
廣告服務(wù) -
企業(yè)會員服務(wù) -
網(wǎng)站地圖 -
聯(lián)系我們 -
征稿 -
友情鏈接 -
手機EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
京ICP備12027778號-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
京ICP備12027778號-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473