MWC22|英特尔推出OpenVINO全新版本, 赋能开发者加速AI推理

自2018年推出OpenVINO™以来,英特尔已经帮助数十万开发者大幅提升了AI推理性能,并将其应用从边缘计算扩展到企业和客户端。英特尔于2022年巴塞罗那世界移动通信大会前夕,推出了英特尔®发行版OpenVINO工具套件的全新版本。其中的新功能主要根据开发者过去三年半的反馈而开发,包括更多的深度学习模型选择、更多的设备可移植性选择以及更高的推理性能和更少的代码更改。 最新版OpenVINO 20

openlab_4276841a 2年前
4744 0 0

YOLOv5模型部署TensorRT之 FP32、FP16、INT8推理

原创 gloomyfish 文章来源:OpenCV学堂 引言YOLOv5最新版本的6.x已经支持直接导出engine文件并部署到TensorRT上了。FP32推理TensorRT演示可能很多人不知道YOLOv5新版本6.x中已经支持一键导出Tensor支持engine文件,而且只需要一条命令行就可以完成:演示如下:python export.py --weights yolov5s.pt --in

openlab_4276841a 2年前
17352 0 0

基于OpenVINO C++ 接口部署飞桨表计识别模型

原创 杨亦诚 文章转自:OpenVINO中文社区 1 项目说明在该项目中,主要向大家介绍如何基于基于 OpenVINO C++ 接口来实现对指针型表计读数。在电力能源厂区需要定期监测表计读数,以保证设备正常运行及厂区安全。但厂区分布分散,人工巡检耗时长,无法实时监测表计,且部分工作环境危险导致人工巡检无法触达。针对上述问题,希望通过摄像头拍照->智能读数的方式高效地完成此任务。 为实现智能读数

openlab_4276841a 2年前
9164 0 0

OpenVINO2022 Dev Tools安装与使用

引言OpenVINO2022.1版本发布之后,对之前旧版本的功能做明确的划分,其中仍然通过exe方式安装程序的是runtime推理包,支持ONNX、IR、PADDLE等模型读取与推理。但是模型优化转换、模型库下载功能等其他功能被分在一个叫Dev Tool的部分。该部分可以通过pip方式直接安装,然后通过命令行直接直线,完成模型的转换,下载等操作,跟之前版本易用性有较大提升!做个对比如下: Dev

openlab_4276841a 2年前
6736 0 0

在蝰蛇峡谷上实现YOLOv5模型的OpenVINO异步推理程序

作者:战鹏州 英特尔物联网行业创新大使 本文将介绍通过异步推理实现方式,进一步提升AI推理程序的性能。在阅读本文前,请读者先参考《基于OpenVINO™2022.2和蝰蛇峡谷优化并部署 YOLOv5模型》,完成OpenVINO开发环境的创建并获得yolov5s.xml模型,然后阅读范例程序yolov5_ov2022_sync_dGPU.py,了解了OpenVINOTM的同步推理程序实现方式。 1

openlab_4276841a 2年前
7920 0 0