新聞中心

EEPW首頁 > 汽車電子 > 設(shè)計(jì)應(yīng)用 > 基于NXP i.MX8QM的AI影像辨識(shí)與車輛識(shí)別方案

基于NXP i.MX8QM的AI影像辨識(shí)與車輛識(shí)別方案

作者: 時(shí)間:2022-08-18 來源:大聯(lián)大 收藏

現(xiàn)今自動(dòng)化駕駛以及輔助駕駛越來越普遍化的情況下,對(duì)于edge computing的需求也越來越提升。

本文引用地址:http://m.butianyuan.cn/article/202208/437471.htm

如何幫助客戶開發(fā)應(yīng)用程式成為新的課題。

品佳在去年提出了eIQ edge運(yùn)算的解決方案,詳細(xì)請(qǐng)參考:

https://www.wpgdadatong.com/tw/solution/detail?PID=5260

今年2020,在此介紹新的eIQ 2.0,大幅提升了效率以及各類使用方式。

此方案基于 原生 BSP 5.4.24_2.1.0做開發(fā),加入Python的元素,并且可使用GPU/NPU做 類神經(jīng)網(wǎng)路的運(yùn)算,使得效率以及應(yīng)用場(chǎng)景皆更完整。                                                                                                                                          

首先使用pip安裝python壓縮包:

使用影像識(shí)別的范例為: 以經(jīng)典圖片grace_hopper.bmp做分別:

2019年初版eIQ:

Inference time約需330ms.

2020年eIQ2.0 (PyeIQ):

1660807421573306.jpg

可以看出以GPU運(yùn)算的能力, 相同使用 mobilenet model, 使用TensorflowLite只需要約10ms, 速度及效率快上30倍!!

另外eIQ2.0提供即時(shí)影像輸入以及視頻辨識(shí)的功能:

使用臺(tái)灣實(shí)景街道拍攝的影片做物件識(shí)別的專案

可以看出實(shí)測(cè)效能為30ms。

此方案提供下列NNAPI表供各個(gè)平臺(tái)以及算法做開發(fā)






此方案整合各家不同算法并提供對(duì)應(yīng)的API供客戶做開發(fā)使用。

并且搭配上 4核A53+2核A72+2顆內(nèi)包GC7000XSVX GPU,可以做到利用GPU運(yùn)算以及圖像技術(shù),且穩(wěn)定提供系統(tǒng)資源。

目前已有數(shù)家客戶以此方案開發(fā)車用市場(chǎng)的應(yīng)用。

品佳FAE團(tuán)隊(duì)將以此方案為基礎(chǔ),協(xié)助所有客戶開發(fā)相關(guān)AI領(lǐng)域的應(yīng)用。

? 場(chǎng)景應(yīng)用圖

sceneryUrl

? 方案方塊圖

funcUrl

? 核心技術(shù)優(yōu)勢(shì)

1. Automotive Gade, ASIL-B

2. 16x Vec4-Shader GPU, 32 compute units OpenGL? ES 3.2 and Vulkan? support Tessellation and Geometry Shading

3. 2xARM A72 core + 4 A53 core

4. MIPI CSI可同時(shí)接入兩個(gè)高清攝像頭

5. 品佳提供跨平臺(tái)(PC to I.MX)的ML(Machine Learning)應(yīng)用程式

? 方案規(guī)格

Python 3.7

TensorFlow 2.1

TensorFlowLite 2.1

OpenCV 4.2.0

ArmNN 19.08



評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉