opencv DNN简介
opencv DNN是opencv中支持深度神经网络推断的模块。
支持opencv3.3以及以上版本。
支持图像分割、对象检测、风格转换、对象识别等。
支持TensorFlow、caffe、torch、darknet等框架。
支持openVINO IE加速执行。
支持加载openVINO预训练模型加载。
OpenVINO简介
支持CPU、GPU、VPU的加速,基于此可以实现OpenVINO加速opencv DNN神经网络模块。
CPU要求酷睿i6及以上。
GPU是基于英特尔的图像卡,不支持英伟达的。
VPU是英特尔的神经网络加速计算棒。
OpenVINO替换opencv作为图像处理的计算后台,提高了运行速度,最小可以获得5-10倍的加速
opencv DNN+OpenVINO
不用于训练深度学习模型,用于接收从深度学习框架训练好的模型,导入进来,opencv DNN或是OpenVINO能单独解析,单独执行而不依赖于深度学习框架而存在。
OpenVINO 2021版 安装与开发配置
使用加速引擎提高推算的速度,达到实时检测,深度学习压缩加速的开源工具包open VINO,其中的IE加速组件。
附:OpenVINO 2021版 安装与开发配置视频教程
或是Windows10 安装 OpenVINO
必须预先安装好VS2015、CMake3.7以上、python3.6.5/python3.7
本次测试环境使用VS2019 release、CMake3.14以及python3.7
windows10、openVINO2021 、CPU:i5-9600KF
一、下载及安装VS2019
二、下载及安装CMake3.14
在安装程序中,为所有用户选择“ 将CMake添加到系统PATH ”选项:
检查一下是否安装成功:
三、下载及安装Python3.7
参考:计算机基础-深度学习下的python下载与安装(windows)
四、openvino2021版安装与开发配置
1.下载以及安装openvino
下载地址:open VINO官网
2.测试是否安装成功
下载完成后,打开windows下的终端,输入以下命令调用openvino 训练好的模型,比如车牌识别检测,测试openvino是否安装成功。
cd /d C:\Intel\openvino_2021.3.394\deployment_tools\demo\demo_security_barrier_camera.bat
3.环境配置
在VS2019中进行包含opencv以及inference_engine的配置
包含目录:
C:\Intel\openvino_2021.3.394\opencv\include
C:\Intel\openvino_2021.3.394\opencv\include\opencv2
C:\Intel\openvino_2021.3.394\deployment_tools\inference_engine\include
库目录:
C:\Intel\openvino_2021.3.394\opencv\lib
C:\Intel\openvino_2021.3.394\deployment_tools\inference_engine\lib\intel64\Release
依赖项:
inference_engine.lib
inference_engine_c_api.lib
inference_engine_ir_reader.lib
inference_engine_legacy.lib
inference_engine_lp_transformations.lib
inference_engine_onnx_reader.lib
inference_engine_preproc.lib
inference_engine_transformations.
lib opencv_calib3d452.lib
opencv_core452.lib
opencv_dnn452.lib
opencv_features2d452.lib
opencv_flann452.lib
opencv_gapi452.lib
opencv_highgui452.lib
opencv_imgcodecs452.lib
opencv_imgproc452.lib
opencv_ml452.lib
opencv_objdetect452.lib
opencv_photo452.lib
opencv_stitching452.lib
opencv_video452.lib
opencv_videoio452.lib
在“我的电脑”进行环境变量的设置
C:\Intel\openvino_2021.3.394\deployment_tools\inference_engine\external\tbb\bin
C:\Intel\openvino_2021.3.394\deployment_tools\inference_engine\bin\intel64\Release
C:\Intel\openvino_2021.3.394\deployment_tools\ngraph\lib
C:\Intel\openvino_2021.3.394\opencv\bin
4.实例测试
配置好后,在opencv DNN模块时,将INFERENCE_ENGINE作为计算后台,CPU作为加速对象,实现加速推断。
net.setPreferableBackend(DNN_BACKEND_INFERENCE_ENGINE);
net.setPreferableTarget(DNN_TARGET_CPU);
YOLOV3测试效果
提升了一倍这样!!!
SSD测试效果
同样也提升了一倍这样!!!
reference:
https://gitee.com/opencv_ai/opencv_tutorial_data/tree/master/models
windows10 64位 OpenVINO安装教程