下载地址:https://software.intel.com/en-us/openvino-toolkit/choose-download/free-download-linux
这里选择的版本为: l_openvino_toolkit_p_2019.3.376.tgz
-
安装OpenVINO
解压:
tar -xzvf l_openvino_toolkit_p_2019.3.376.tgz
进入解压后文件中
cd l_openvino_toolkit_p_2019.3.376
如果以前已经安装过OpenVINO,请先删除或重命名下面两个文件:
/home/<user>/inference_engine_samples
/home/<user>/openvino_models
这里有两种安装方式分别GUI和Command-Line,这里采用GUI的安装方式:
sudo ./install_GUI.sh
之后均采用默认安装方式,OpenVINO的默认安装目录为 /opt/inetl/l_openvino_toolkit_p_2019.3.376/
安装外部软件依赖
主要包括三大块: opencv,深度学习推理引擎,深度学习模型优化工具;
cd /opt/intel/openvino/install_dependencies
sudo -E ./install_openvino_dependencies.sh
配置模型优化器
模型优化器主要是将目前主流深度学习框架(如caffe, tensorflow, Apache MXNet, ONNX, Kaldi)训练好的模型,转换为Intel OpenVINO所使用的中间表示Intermediate Representation(IR):
包含.xml 和 .bin 两个文件, .xml用于描述网络的拓扑结构, .bin用于保存网络的权重和偏置的二进制数据
方法1. 同时配置所有支持的框架
/opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
sudo ./install_prerequisites.sh
模型优化配置方法主要有以下两种,一次性全配置还是逐个配置;
方法2. 分别配置各个框架
- Caffe:
sudo ./install_prerequisites_caffe.sh
- TensorFlow
sudo ./install_prerequisites_tf.sh
- MXNet
sudo ./install_prerequisites_mxnet.sh
- ONNX
sudo ./install_prerequisites_onnx.sh
- Kaldi
sudo ./install_prerequisites_kaldi.sh
demo测试
进入测试案例目录:
cd /opt/intel/openvino/deployment_tools/demo
- demo1
运行图像分类demo
./demo_squeezenet_download_convert_run.sh
- demo2
运行目标检测demo:
./demo_security_barrier_camera.sh
完,