a一级爱做片免费观看欧美,久久国产一区二区,日本一二三区免费,久草视频手机在线观看

新聞中心

EEPW首頁 > 智能計算 > 進階指南 > OpenVINO? 工作流程整合工具

OpenVINO? 工作流程整合工具

作者: 時間:2021-08-02 來源:QNAP 收藏
編者按:加速、簡化,并驗證您的深度學習推論應用

  QNAP的?Workflow Consolidation Tool(簡稱OWCT)為融合?執行流程的協同。此應用程序采用Intel??開發包技術,專為深度學習應用打造,可將訓練好的AI模型部署到目標平臺上進行推論操作,協助企業組織以經濟、效率的方式快速部署計算機視覺(Computer Vision)和深度學習解決方案。

本文引用地址:http://www.j9360.com/article/202108/427282.htm

訓練和推論

1627886314180914.png

  「訓練」指的是讓系統通過一組有限數據進行學習的過程;而「推論」則是運用已經訓練完成的模型,在更廣大的環境里實際預測正確的結果。

Intel?OpenVINO?開發

  開源的OpenVINO?工具套件可讓您的企業將計算機視覺與深度學習解決方案快速又有效地實施于多種應用程序上。其支持硬件加速裝置以帶來深度學習推論的加速能力,并廣泛支持Intel?平臺裝置(包含CPU、GPU、FPGA及VPU等硬件加速芯片)。重要元素包括:

  *Intel?深度學習開發工具包(模型優化器和推論引擎)

  *針對OpenCV和OpenVX的優化功能

  *超過15個范例程序代碼和預先訓練好的模型,可節省寶貴的開發時間

1627886314165289.jpg

快速進行您的計算機視覺AI推論

  使用OpenVINO?Workflow Consolidation Tool(OWCT)的主要優點:

  部署快速

  OpenVINO?工具套件內含開源的代碼庫,可協助縮短開發時間,并簡化深度學習推論和計算機視覺解決方案的部署流程。

  模型優化

  模型優化器可將訓練模型轉換成IR文件格式(Intermediate Representation),并協助去除已訓練好模型中的冗余參數,提升推論速度數十倍到百倍。

  圖形用戶接口

  OWCT提供圖形用戶接口,讓用戶可輕易地使用OpenVINO?功能,檢視呈現的影像畫面,并下載推論結果存檔。

使用默認模型加速開發時間

  除了找尋現成的AI模型或自行訓練專屬的模型,OpenVINO?工具套件也提供Intel?預先訓諫及優化好的神經網絡模型讓用戶套用,并且是推論引擎可直接讀取并執行推論。

使用預先訓練好的模型

  OpenVINO?工具套件包含兩種優化的模型組。您可以直接采用這些模型應用至您的推論環境,節省寶貴的開發時間。

  *年齡&性別辨識

  *十字路口

  *頭部位置

  *安全標志、路障

  *交通工具特征辨識

  *以及更多…

使用您自己訓練的模型

1627886314165289.jpg

  匯入您自行訓練的模型,并利用模型優化器和推論引擎的優化功能,如此一來,您便能輕松地在現有或是未來的Intel?平臺裝置執行計算機視覺推論,滿足AI應用需求。OpenVINO?工具套件可兼容使用Caffe或TensorFlow框架所開發的訓練模型。

加速卡助力深度學習推論

1627886325985465.jpg

  OpenVINO?工具套件支持Intel?平臺的硬件加速器(CPU、GPU、FPGA和VPU),透過統一的API接口對指定的加速硬件激發效能潛力。



評論


相關推薦

技術專區

關閉