【openvino系列教程(一)】安裝、模型轉換、前饋、參考資料


1. Profile

overview

(本節內容引自 Intel NCS2計算棒以及OpenVINO嚐鮮
計算棒需要配合Intel出的OpenVINO推理框架,使用時首先需要將模型文件轉換爲OpenVINO的模型OpenVINO目前支持Caffe、TensorFlow、MXNet等主流的深度學習框架。模型可以直接通過OpenVINO的轉換工具進行轉換。轉換時需要輸入網絡輸入節點的名稱以及輸入圖片的大小,還有一點需要注意,NCS 2計算棒支持的是16位精度的浮點型數據,所以在轉換時還需要加上”–data_type=FP16”。

OpenVINO框架中使用NCS 2計算棒和直接使用CPU性能差不多,使用CPU(Intel Core i5 4200M)時,檢測一幀需要660ms,使用NCS2計算棒需要590ms。但是在OpenVINO框架中使用CPU速度要比在MXNet中使用CPU快,MXNet中使用CPU檢測一幀需要1.1s左右。OpenVINO前向計算能基本比mxnet框架快一倍。
在這裏插入圖片描述


2. Installation

2.1 Linux

python3
cd Python-3.5.6;
./configure --enable-shared;
make all -j16;
make install;
echo "/usr/local/lib" > /etc/ld.so.conf.d/python3.conf;ldconfig;
vim /usr/bin/yum
#!/usr/bin/python ->#!/usr/bin/python2
rm /usr/bin/python;ln -s /usr/local/bin/python3 /usr/bin/python3;
ln -s /usr/local/bin/python3.5 /usr/bin/python3.5;
ln -s /usr/local/bin/pip3 /usr/bin/pip

yum -y install cmake
cmake --version
cmake version 2.8.12.2

2.1.1 Install Basic Openvino

  1. 下載並解壓 Intel® Distribution of OpenVINO™ toolkit for Linux*
    tar -xvzf l_openvino_toolkit_p_<version>.tgz
    cd l_openvino_toolkit_p_<version>
    
  2. 命令行安裝
    yum install pciutils;
    yum install redhat-lsb -y; 
    sudo ./install_openvino_dependencies.sh
    sudo ./install.sh
    
  3. 安裝路徑:/opt/intel/openvino/

2.1.2 Install External Software Dependencies

cd /opt/intel/openvino/install_dependencies
sudo -E ./install_openvino_dependencies.sh

2.1.3 Set the Environment Variables

source /opt/intel/openvino/bin/setupvars.sh
echo source /opt/intel/openvino/bin/setupvars.sh >> ~/.bash_profile
或者全局生效:
echo source /opt/intel/openvino/bin/setupvars.sh >> /etc/profile && source /etc/profile

2.1.4 Configure the Model Optimizer

devnet無法訪問外網,這一步裝不了,不過應該不映像模型轉換

cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
sudo ./install_prerequisites.sh

2.1.5 Run the Verification Scripts to Verify Installation

devnet無法訪問外網,之一步無法進行,提示“沒有可用軟件包 epel-release”。只要第5章的“Run your demo”可以成功即可。

cd /opt/intel/openvino/deployment_tools/demo
./demo_squeezenet_download_convert_run.sh

2.2 Mac OS

請參考Install Intel® Distribution of OpenVINO™ toolkit for macOS* 官方macOS指南

2.3 FAQ

  • lspci: command not found: yum install pciutils
  • lsb_release: 未找到命令: yum install redhat-lsb -y

3. Model Optimizer

caffe模型轉換:

python3 /opt/intel/openvino/deployment_tools/model_optimizer/mo.py --input_model xxxx.caffemodel

更多請參考第六章的“模型”部分。


4. Inference Engine

4.1 Inference Engine Developer Guide

參考官方教程Inference Engine Developer Guide

4.2 Validation Application

參考官方教程Validation Application


5. Run your demo

  1. cd /opt/intel/openvino/inference_engine/samples
  2. ./build_samples.sh
  3. find inference_engine_samples_build result in the last directory.
    更多信息,請參考我的github工程:https://github.com/KindleHe/openvino_totorial

6. Issues


7. References

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章