Intel® DevCloud - Container Playground

全文链接:https://www.intel.com/content/www/us/en/develop/documentation/devcloud-containers/top.html

openlab_4276841a 2年前
3644 0 0

Ubuntu20.04环境下使用OpenVINO部署BiSeNetV2模型

全文链接:https://bizwebcast.intel.cn/dev/articleDetails.html?id=73

openlab_4276841a 2年前
3444 0 0

如何使用 OpenVINO™ 部署 PaddleSeg 模型库中的 DeepLabV3+ 模型

全文链接:https://bizwebcast.intel.cn/dev/articleDetails.html?id=97

openlab_4276841a 2年前
3772 0 0

基于Intel® 集成显卡的 FFmpeg 调用 VAAPI 硬件解码零数据拷贝链接OpenVINO™ 推理引擎工作流程的实现

全文链接:https://bizwebcast.intel.cn/dev/articleDetails.html?id=105(注册以后即可获取)

openlab_4276841a 2年前
4068 0 0

OpenVINO™ 模型转换技术要点解读

概述OpenVINO™ 是由Intel推出的用于深度学习推理加速的开源工具集,具有跨平台、高性能的特点。模型转换技术,是通过OpenVINO™工具集中的模型优化器(Model Optimizer,简称 MO,以下提到的MO均指代模型优化器)将预训练好的模型进行格式转换以及拓扑优化的技术。经过模型转换的神经网络模型,可以在实际的部署阶段获得更优异的性能加速比以及更为通用的跨平台特性。本文首先会简单回

openlab_4276841a 2年前
3692 0 0