深度學習 文章 進入深度學習技術社區(qū)
MCX N系列NPU智能驅(qū)動AI咖啡機,重塑咖啡研磨新境界!
- MCX N系列NPU, 作為先進的人工智能處理器,以其強大的計算能力和高效的算法優(yōu)化,不僅能夠處理復雜的圖像識別任務,還能在咖啡研磨過程中實現(xiàn)精準控制,確保每一??Х榷苟寄艿玫角〉胶锰幍奶幚怼锳I咖啡機注入了前所未有的智能動力!先說結(jié)論,利用150MHz MCX N的NPU去推理咖啡豆烘焙程度(39mS)比用400MHz的M7內(nèi)核推理(109mS)快了3倍!作為一名“咖市”的“MCU系統(tǒng)與應用工程師”一直為研磨咖啡豆的顆粒度而感到苦惱,每次換豆都要浪費2次18克豆子去實現(xiàn)“18克豆,10bar,30秒內(nèi)
- 關鍵字: NPU AI咖啡機 深度學習
TFLite模型的開盲盒體驗
- TFLite模型的開盲盒體驗之flatbuffer格式介紹相信在嵌入式平臺上部署過神經(jīng)網(wǎng)絡模型的伙伴,都不會對TFLite格式陌生。TFLite是谷歌推出的一個輕量級推理庫,它的主要目標是在移動端和嵌入式設備上部署深度學習模型。為了在這些設備上運行,需要將訓練好的TensorFlow模型轉(zhuǎn)換成一種特殊的格式,這就是TensorFlow Lite模型。轉(zhuǎn)換過程包括模型轉(zhuǎn)化、部署和優(yōu)化三個步驟,旨在提升運算速度并減少內(nèi)存、顯存占用。具體來說,這其中最終要的就是以.TFLite為格式的模型文件,其主結(jié)構(gòu)為一個M
- 關鍵字: TFLite 模型 推理庫 深度學習
Firefly DL小巧輕便,嵌入式深度學習加速部署
- 近年來,機器視覺系統(tǒng)越來越多地基于可變條件進行自動化決策。開發(fā)這些系統(tǒng)所需的時間和精力可能會讓人望而卻步。而深度學習的出現(xiàn)正在改變這一局面,并使自動化決策觸手可及。開源庫、Nvidia硬件和FLIR相機等資源正在幫助實現(xiàn)這一變化。走進深度學習“一張圖片勝過千言萬語”這句話在機器視覺領域里從未像今天這樣真實。機器視覺可以將數(shù)千甚至數(shù)百萬行代碼用簡單地經(jīng)過圖片和少量編碼訓練后的的神經(jīng)網(wǎng)絡所代替。深度學習是一種機器學習形式,它使用在輸入和輸出節(jié)點之間有許多“深層”層的神經(jīng)網(wǎng)絡。通過在大數(shù)據(jù)集上訓練網(wǎng)絡,可以創(chuàng)建
- 關鍵字: Firefly DL 深度學習 人工智能
基于深度學習的智能電網(wǎng)短期日負荷曲線預測系統(tǒng)設計與實現(xiàn)
- 短期電力負荷精準預測對發(fā)電容量與輸電方式的合理調(diào)度、確保電力系統(tǒng)安全、穩(wěn)定運行起著至關重要的作用。本文針對負荷數(shù)據(jù)基數(shù)大、難提取、負荷預測影響因素多等問題,運用Mysql數(shù)據(jù)庫和Python爬蟲技術構(gòu)建了短期負荷曲線預測基礎數(shù)據(jù)平臺,提高了數(shù)據(jù)的存取效率;針對電力負荷的隨機波動性,運用Pandas、關聯(lián)分析算法完成了缺失值處理和影響因素與用電負荷的相關性分析;為提高預測精度,探索使用了融合卷積神經(jīng)網(wǎng)絡、長短期記憶網(wǎng)格和注意力機制的多元混合神經(jīng)網(wǎng)絡模型。
- 關鍵字: 202302 深度學習 短期負荷預測 卷積神經(jīng)網(wǎng)絡 長短期記憶網(wǎng)格 Flask
基于深度學習的跌倒檢測技術對比與分析*
- 基于意外跌倒是造成老年人受傷、失能及死亡的主要原因,對近年來關于深度學習的跌倒檢測研究進行了介紹。根據(jù)跌倒檢測工作流程,從數(shù)據(jù)采集、數(shù)據(jù)處理、模型訓練及狀態(tài)識別幾個方面進行了詳細介紹,并對已有的基于深度學習的跌倒檢測方法進行分析與比較,為將來的應用研究提供參考,并對將來的發(fā)展方向提出一些思考。
- 關鍵字: 深度學習 跌倒檢測 卷積神經(jīng)網(wǎng)絡 長短期記憶網(wǎng)絡 202212
一種改進的可遷移深度學習模型*
- 摘 要:本文設計了一種改進的可遷移深度學習模型。該模型能夠在離開可靠的訓練環(huán)境(其中存在標簽)并被 置于純粹的無標簽數(shù)據(jù)的領域時,輸出依然可以持續(xù)得到改善,這種訓練方式可以降低對監(jiān)督學習的依賴程度。關鍵詞:可遷移;深度學習;無標簽*基金項目:湖南省教育廳科學研究課題“基于深度學習的智能無人機目標檢測算法研究”(20C0105);湖南省 自然科學基金項目《基于高光譜特征信息融合的油菜籽品質(zhì)參數(shù)反演與建?!罚?021JJ60093);校級培育項目 “基于深度學習的目標檢測算法研究”(22mypy15)1
- 關鍵字: 202210 可遷移 深度學習 無標簽
基于圖結(jié)構(gòu)的圖像注意力網(wǎng)絡
- 摘要:雖然現(xiàn)已有許多關于圖像注意力機制的研究,但是現(xiàn)有的方法往往忽視了特征圖的全局空間結(jié)構(gòu)和空 間注意力與通道注意力的聯(lián)系。所以本文提出了一種基于整個空間拓撲結(jié)構(gòu)的注意機制,將特征圖映射成結(jié)點 與特征的形式,再借助圖卷積網(wǎng)絡的特性,得以從整個空間學習特征權重圖。其次空間注意力與通道注意力一 體化結(jié)構(gòu)能夠更有效地學習特征權重。通過多個實驗測試表明,在圖像分類和人臉識別任務中,展現(xiàn)了優(yōu)異的 性能和普遍適用性。關鍵詞:深度學習;注意力機制;圖像分類;人臉識別 隨著計算機性能的提升,卷積神經(jīng)網(wǎng)絡 (co
- 關鍵字: 202207 深度學習 注意力機制 圖像分類 人臉識別
直覺有害!Facbook最新研究:易于解釋的神經(jīng)元會誤導DNN的學習
- 編譯|蔣寶尚 關于AI是什么,學界和業(yè)界已經(jīng)給出了非常多的定義,但是對于AI理解,探討尚不足。換句話說,計算機科學家解釋深度神經(jīng)網(wǎng)絡(DNNs)的能力大大落后于我們利用其取得有用結(jié)果的能力?! ‘斍袄斫馍疃壬窠?jīng)網(wǎng)絡的常見做法是在單個神經(jīng)元特性上“折騰”。例如,激活識別貓圖像的神經(jīng)元,而關閉其他神經(jīng)元的“控制變量法”。這種方法的學術術語叫做“類選擇性”?! ∮捎谥庇^和易理解,“類選擇性”在學界廣泛應用。誠然,在訓練過程中,這類可解釋的神經(jīng)元確實會“選擇性地”出現(xiàn)在各種不同任務網(wǎng)絡中。例如,預測產(chǎn)品評論
- 關鍵字: DNN 深度神經(jīng)網(wǎng)絡 深度學習
為什么深度學習如此容易被愚弄?AI研究員正努力修復神經(jīng)網(wǎng)絡缺陷
- 來源:nature 編譯:張大筆茹、小七 假設一輛自動駕駛汽車看到停車標志時并沒有減速,而是加速駛?cè)肓朔泵Φ氖致房冢瑥亩鴮е铝私煌ㄊ鹿?。事故報告顯示,停車標志的表面粘了四個小的矩形標志。這說明一些微小擾動就能愚弄車載人工智能(AI),使其將“停止”一詞誤讀為“限速45”。 目前,此類事件還未發(fā)生,但是人為擾動可能影響AI是非常現(xiàn)實的。研究人員已經(jīng)展示了如何通過粘貼紙來欺騙AI系統(tǒng)誤讀停車標志,或者通過在眼鏡或帽子上粘貼印刷圖案來欺騙人臉識別系統(tǒng),又或者通過在音頻中插入白噪聲使語音識別系統(tǒng)產(chǎn)生錯
- 關鍵字: DNN 深度神經(jīng)網(wǎng)絡 深度學習
DNNBrain:北師大團隊出品的用于映射深層神經(jīng)網(wǎng)絡到大腦的工具箱
- 導讀深度神經(jīng)網(wǎng)絡(DNN)通過端到端的深度學習策略在許多具有挑戰(zhàn)性的任務上達到了人類水平的性能。深度學習產(chǎn)生了具有多層抽象層次的數(shù)據(jù)表示;然而,它沒有明確地提供任何關于DNNs內(nèi)部運作的解釋,換句話說它的內(nèi)部運作是一個黑盒子。深度神經(jīng)網(wǎng)絡的成功吸引了神經(jīng)科學家,他們不僅將DNN應用到生物神經(jīng)系統(tǒng)模型中,而且還采用了認知神經(jīng)科學的概念和方法來理解DNN的內(nèi)部表示。盡管可以使用諸如PyTorch和TensorFlow之類的通用深度學習框架來進行此類跨學科研究,但是使用這些框架通常需要高級編程專家和全面的數(shù)學知
- 關鍵字: DNN 深度神經(jīng)網(wǎng)絡 深度學習 腦機接口
CNN(卷積神經(jīng)網(wǎng)絡)、RNN(循環(huán)神經(jīng)網(wǎng)絡)、DNN(深度神經(jīng)網(wǎng)絡)的內(nèi)部網(wǎng)絡結(jié)構(gòu)的區(qū)別
- 先說DNN,從結(jié)構(gòu)上來說他和傳統(tǒng)意義上的NN(神經(jīng)網(wǎng)絡)沒什么區(qū)別,但是神經(jīng)網(wǎng)絡發(fā)展時遇到了一些瓶頸問題。一開始的神經(jīng)元不能表示異或運算,科學家通過增加網(wǎng)絡層數(shù),增加隱藏層可以表達。并發(fā)現(xiàn)神經(jīng)網(wǎng)絡的層數(shù)直接決定了它對現(xiàn)實的表達能力。但是隨著層數(shù)的增加會出現(xiàn)局部函數(shù)越來越容易出現(xiàn)局部最優(yōu)解的現(xiàn)象,用數(shù)據(jù)訓練深層網(wǎng)絡有時候還不如淺層網(wǎng)絡,并會出現(xiàn)梯度消失的問題。我們經(jīng)常使用sigmoid函數(shù)作為神經(jīng)元的輸入輸出函數(shù),在BP反向傳播梯度時,信號量為1的傳到下一層就變成0.25了,到最后面幾層基本無法達到調(diào)節(jié)參數(shù)
- 關鍵字: DNN 深度神經(jīng)網(wǎng)絡 深度學習 CNN RNN
深度神經(jīng)網(wǎng)絡(DNN)模型與前向傳播算法
- 深度神經(jīng)網(wǎng)絡(Deep Neural Networks,以下簡稱DNN)是深度學習的基礎,而要理解DNN,首先我們要理解DNN模型,下面我們就對DNN的模型與前向傳播算法做一個總結(jié)?! ?.從感知機到神經(jīng)網(wǎng)絡 在感知機原理小結(jié)中,我們介紹過感知機的模型,它是一個有若干輸入和一個輸出的模型,如下圖: 輸出和輸入之間學習到一個線性關系,得到中間輸出結(jié)果: z=∑i=1mwixi+bz=∑i=1mwixi+b 接著是一個神經(jīng)元激活函數(shù): sign(z)={?11z<0z≥0sign(z)={
- 關鍵字: DNN 深度神經(jīng)網(wǎng)絡 深度學習
什么是DNN?它對AI發(fā)展意味著什么
- 為了讓AI加速器在最短延遲內(nèi)達到最佳精準度,特別是在自動駕駛車中,TFLOP已經(jīng)成為許多所謂大腦芯片的關鍵指針,然而,有專家認為這種野蠻處理方式并不可持續(xù)…… 為了讓人工智能(AI)加速器在最短延遲內(nèi)達到最佳精準度,特別是在自動駕駛車(AV)中,TFLOP(兆次浮點運算)已經(jīng)成為許多所謂大腦芯片的關鍵指針。這場競賽的選手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自動駕駛(FSD)計算機芯片,以及NXP-Kalray芯片。然而,有專家認為這種野蠻處理方式
- 關鍵字: DNN 深度神經(jīng)網(wǎng)絡 深度學習
深度學習介紹
您好,目前還沒有人創(chuàng)建詞條深度學習!
歡迎您創(chuàng)建該詞條,闡述對深度學習的理解,并與今后在此搜索深度學習的朋友們分享。 創(chuàng)建詞條
歡迎您創(chuàng)建該詞條,闡述對深度學習的理解,并與今后在此搜索深度學習的朋友們分享。 創(chuàng)建詞條
關于我們 -
廣告服務 -
企業(yè)會員服務 -
網(wǎng)站地圖 -
聯(lián)系我們 -
征稿 -
友情鏈接 -
手機EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權所有 北京東曉國際技術信息咨詢有限公司
京ICP備12027778號-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權所有 北京東曉國際技術信息咨詢有限公司
京ICP備12027778號-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473