新聞中心

EEPW首頁 > 智能計算 > 新品快遞 > 預訓練模型和遷移學習工具包3.0助力快速實現(xiàn)生產(chǎn)級AI

預訓練模型和遷移學習工具包3.0助力快速實現(xiàn)生產(chǎn)級AI

作者: 時間:2021-06-25 來源:電子產(chǎn)品世界 收藏

NVIDIA近日發(fā)布全新預訓練模型并宣布遷移學習工具包(TLT)3.0全面公開可用。遷移學習工具包在NVIDIA TAO平臺指導工作流程以創(chuàng)建AI的過程中起到核心作用。新版本包括各種高精度和高性能計算機視覺和對話式AI預訓練模型,以及一套強大的生產(chǎn)級功能,可將AI開發(fā)能力提升10倍。

本文引用地址:http://m.butianyuan.cn/article/202106/426567.htm

隨著企業(yè)競相推出AI解決方案,企業(yè)競爭力將有賴于是否能夠獲得最佳開發(fā)工具。對于許多嘗試使用開源AI產(chǎn)品創(chuàng)建模型進行訓練的工程和研究團隊來說,在生產(chǎn)中部署自定義、高精度、高性能AI模型可能是一段十分艱難的開發(fā)歷程。NVIDIA提供高質量的預訓練模型和TLT以幫助降低大規(guī)模數(shù)據(jù)采集和標注成本,同時告別從頭開始訓練AI/機器學習模型的負擔。初入計算機視覺和語音服務市場的企業(yè)現(xiàn)在也可以在不具備大規(guī)模AI開發(fā)團隊的情況下部署生產(chǎn)級AI。

1624610379375680.jpg

新版本亮點包括:

●   一個支持邊緣實時推理的姿態(tài)估計模型,其推理性能比OpenPose模型快9倍。

●   PeopleSemSegNet,一個用于人物檢測的語義分割網(wǎng)絡。

●   各種行業(yè)用例中的計算機視覺預訓練模型,如車牌檢測和識別、心率監(jiān)測、情緒識別、面部特征點等。

●   CitriNet,一個使用各種專有特定域和開源數(shù)據(jù)集進行訓練的新語音識別模型。

●   一個用于問題回答的新Megatron Uncased模型以及許多其他支持語音文本轉換、命名實體識別、標點符號和文本分類的預訓練模型。

●   AWS、GCP和Azure上的訓練支持

●   在用于視覺AI的NVIDIA Triton?和DeepStream SDK上以及用于對話式AI的Jarvis上的開箱即用部署。

1624610409947661.png

    與數(shù)據(jù)生成和標簽工具集成,實現(xiàn)更快、更精確的AI

    TLT 3.0現(xiàn)在還與數(shù)家領先合作伙伴的平臺集成,這些合作伙伴提供大量多樣化的高質量標簽數(shù)據(jù),使端到端AI/機器學習工作流程變得更快。您現(xiàn)在可以使用這些合作伙伴的服務來生成和注釋數(shù)據(jù)、通過與TLT無縫集成進行模型訓練和優(yōu)化并使用DeepStream SDK或Jarvis部署模型以創(chuàng)建可靠的計算機視覺和對話式AI應用。



    關鍵詞:

    評論


    相關推薦

    技術專區(qū)

    關閉