您的位置 首页 > 腾讯云社区

OpenVINO 2020R01 SDK的改动与应用开发演示---OpenCV学堂

OpenVINO 2020R01版本

之前写了一篇OpenVINO2020R01版本中如何使用OpenCV深度神经网络模型实现模型推理加速,详细交代了相关配置与程序演示内容。

OpenCV4.2 + OpenVINO2020安装配置与应用演示

但是还缺少OpenVINO SDK开发与应用程序集成相关的代码演示部分,所以这篇文章就是关于OpenVINO SDK应用开发代码演示相关步骤与说明,代码主要是跟我之前的OpenVINO2019R03的测试程序差不多,在此基础上稍有改动。

开发环境配置

要使用OpenVINO的推理引擎的相关SDK开发,首先就要完成相关配置,这里先说一下我的开发环境:

VS2015Windows 10 64位OpenCV4.2OpenVINO2020R01

在VS2015中配置OpenVINO开发支持,很简单的!(以我安装好的路径为例)

1. 配置包含目录,指向include目录

C:Intelopenvino_2020.1.033deployment_toolsinference_engineinclude

2. 配置库目录,指向lib目录

C:Intelopenvino_2020.1.033deployment_toolsinference_enginelibintel64Release

3. 配置链接器

inference_engine.lib

4. 配置环境变量,指向bin目录

C:Intelopenvino_2020.1.033deployment_toolsinference_enginebinintel64Release

此外环境变量还需要添加

C:Intelopenvino_2020.1.033deployment_toolsngraphlibC:Intelopenvino_2020.1.033deployment_toolsinference_engineexternaltbbbin

配置好之后,记得重启一下VS2015/VS2017/VS2019即可。

SDK开发程序演示

首先可以调用InferenceEngine::Core 来实现设备支持查询,代码如下:

Core ie; vector<string> availableDevices = ie.GetAvailableDevices(); for (int i = 0; i < availableDevices.size(); i++) { printf("supported device name : %s n", availableDevices[i].c_str()); }

本机查询结果如下:

基于face-detection-retail-0004人脸检测模型,实现图像人脸检测演示程序,首先需要加载IR模型与配置信息(xml与bin文件),代码如下

// 加载检测模型 CNNNetReader network_reader; network_reader.ReadNetwork(model_xml); network_reader.ReadWeights(model_bin);

设置网络的输入与输出

// 请求网络输入与输出信息 auto network = network_reader.getNetwork(); InferenceEngine::InputsDataMap input_info(network.getInputsInfo()); InferenceEngine::OutputsDataMap output_info(network.getOutputsInfo()); // 设置输入格式 for (auto &item : input_info) { auto input_data = item.second; input_data->setPrecision(Precision::U8); input_data->setLayout(Layout::NCHW); input_data->getPreProcess().setResizeAlgorithm(RESIZE_BILINEAR); input_data->getPreProcess().setColorFormat(ColorFormat::RGB); } printf("get it n"); // 设置输出格式 for (auto &item : output_info) { auto output_data = item.second; output_data->setPrecision(Precision::FP32); }

创建可执行网络,在2020之前的版本中,创建可执行网络CPU执行的时候使用MKLDNNPlugin.dll,但是很多网络模型CPU扩展支持,所以会这样去加载

// 创建可执行网络对象 ie.AddExtension(std::make_shared<Extensions::Cpu::CpuExtensions>(), "CPU"); auto executable_network = ie.LoadNetwork(network, "CPU");

2020R01版本安装好之后的sample代码中是这样:

IExtensionPtr extension_ptr = make_so_pointer<IExtension>(FLAGS_l); ie.AddExtension(extension_ptr, "CPU");

我是从sample代码(Sample代码中还有CPU_EXTENSION,这个深深误导了我)做参考写这个演示程序的,后来我发现我死活也找不到编译好的CPU_EXTENSION相关文件,搜索了整个sample代码,还是没有!于是我在官方的Release Notes里面找到了这样一段话

https://software.intel.com/en-us/articles/OpenVINO-RelNote

什么意思啊,意思是2020版本开始,CPU执行代码这样就了可以了

auto executable_network = ie.LoadNetwork(network, "CPU");

跟计算棒执行没什么两样:

auto executable_network = ie.LoadNetwork(network, "MYRIAD");

直接用即可!再也不用为了CPU扩展加载而编译sample了!我感觉sample代码是不是要更新一波了。

下面就是请求推动,填上输入数据,然后执行推理

// 请求推断图 auto infer_request = executable_network.CreateInferRequest(); /** Iterating over all input blobs **/ for (auto & item : input_info) { auto input_name = item.first; /** Getting input blob **/ auto input = infer_request.GetBlob(input_name); size_t num_channels = input->getTensorDesc().getDims()[1]; size_t h = input->getTensorDesc().getDims()[2]; size_t w = input->getTensorDesc().getDims()[3]; size_t image_size = h*w; Mat blob_image; resize(src, blob_image, Size(h, w)); // NCHW unsigned char* data = static_cast<unsigned char*>(input->buffer()); for (size_t row = 0; row < h; row++) { for (size_t col = 0; col < w; col++) { for (size_t ch = 0; ch < num_channels; ch++) { data[image_size*ch + row*w + col] = blob_image.at<Vec3b>(row, col)[ch]; } } } } // 执行预测 infer_request.Infer();

对推理输出结果进行解析,得到输出

// 处理输出结果 for (auto &item : output_info) { auto output_name = item.first; // 获取输出数据 auto output = infer_request.GetBlob(output_name); const float* detection = static_cast<PrecisionTrait<Precision::FP32>::value_type*>(output->buffer()); const SizeVector outputDims = output->getTensorDesc().getDims(); const int maxProposalCount = outputDims[2]; const int objectSize = outputDims[3]; // 解析输出结果 for (int curProposal = 0; curProposal < maxProposalCount; curProposal++) { float label = detection[curProposal * objectSize + 1]; float confidence = detection[curProposal * objectSize + 2]; float xmin = detection[curProposal * objectSize + 3] * image_width; float ymin = detection[curProposal * objectSize + 4] * image_height; float xmax = detection[curProposal * objectSize + 5] * image_width; float ymax = detection[curProposal * objectSize + 6] * image_height; if (confidence > 0.5) { printf("label id : %dn", static_cast<int>(label)); Rect rect; rect.x = static_cast<int>(xmin); rect.y = static_cast<int>(ymin); rect.width = static_cast<int>(xmax - xmin); rect.height = static_cast<int>(ymax - ymin); putText(src, "OpenVINO-2020R01 face detection demo", Point(20, 20), FONT_HERSHEY_SIMPLEX, 0.75, Scalar(0, 0, 255), 2, 8); rectangle(src, rect, Scalar(0, 255, 255), 2, 8, 0); } std::cout << std::endl; } } imshow("openvino-ssd-face-demo", src);

代码实现之后,就开始编译了,这个时刻VS2015会开始翻车表演,你会得到很多C4996的错误,大致意思是告诉你一些API函数下个版本不能用了,早做打算,这个明明应该是个警告,怎么VS2015 IDE就是不让编译通过啊,没办法,直接强制告诉编译器,别管它,怎么设置,看这里:

怎么搞,就是在禁止特定警告中加上4996,意思是告诉编译器别检查此项了!然后再重新编译,一般都会正常通过了。

但是我有个哥们跟我一样,还是继续翻车了,无法编译通过,他还是有C2240跟C2664两个编译错误,这个其实是因为项目字节编码导致的,检查一下,如果你还是unicode的话改成下面这样就好啦!

这次是真的可以了,直接重新编译,生成,运行结果如下:

以上就是OpenVINO C++版本的SDK在Windows系统下我的调用经过!

总结一下:

1.不需要CPU扩展代码加载了,这个必须赞扬 2.VS2015上配置简单了 3.C4996希望下个版本可以没有了,影响开发体验

OpenVINO下载地址:

https://software.intel.com/en-us/openvino-toolkit/choose-download?innovator=CONT-0030837

云厚者,雨必猛

弓劲者,箭必远

---来自腾讯云社区的---OpenCV学堂

关于作者: 瞎采新闻

这里可以显示个人介绍!这里可以显示个人介绍!

热门文章

留言与评论(共有 0 条评论)
   
验证码: