支持英特尔独立显卡的OpenVINO 2022.2新版来啦

作者:武卓,英特尔AI软件布道师 前言金秋已至。伴着凉爽的秋风一起到来的,还有OpenVINO™工具套件刚刚推出的最新版本OpenVINO™2022.2。除了能支持英特尔今年新推出的一系列独立显卡进行AI模型的推理加速及部署外,2022.2的新版本中还有哪些亮眼的新特性呢?让我们一起来看看吧。 · 更广泛的模型和硬件支持 – 新增包括英特尔独立显卡等的硬件支持,并减少动态输入时的内存消耗、提升NL

openlab_4276841a 1年前
3804 0 0

通过 OpenVINO™ Model Server和 TensorFlow Serving简化部署

作者: Milosz Zeglarski 翻译: 李翊玮介绍在这篇博客中,您将学习如何使用OpenVINO Model Server中的gRPC API对JPEG图像执行推理。Model server****>在顺利地将模型从开发环境引入生产方面发挥着重要作用。它们通过网络终结点提供模型,并公开用于与之交互的 API。提供模型后,需要一组函数才能从我们的应用程序调用 API。OpenVINO™ M

openlab_4276841a 1年前
2564 0 0

构建英特尔® DevCloud

示例应用程序为满足您的特定市场需求而设计,展示如何优化、调整和加速英特尔® 架构的解决方案。 精选应用程序Tiny Yolo V3 对象检测将 Darknet 上预训练的 Tiny YOLO* V3 模型转换为 TensorFlow*。然后运行加速推理进行对象检测。机器人手术分割转换 PyTorch* 模型,以使用英特尔® 发行版 OpenVINO™ 工具套件加速内窥镜手术视频中的推理。性能对比使

openlab_4276841a 1年前
2396 0 0

基于POT工具API模式的模型量化方法

在前几期关于 OpenVINO POT 工具的示例中,Ethan 老师主要分享了如何利用命令行来运行 POT 量化任务。可能很多小伙伴们还不知道,POT 还支持基于 Python API 的代码调用模式哦。相比较传统命令行的模式,使用 API 接口的调用可以更便捷的实现一些自定义的方法,例如数据加载处理和精度评估等。 接下来我们就 Notebook 示例,一起来看下 POT 工具 API 模式的基

openlab_4276841a 1年前
3560 0 0

新学期!走进智慧校园,开启九月奇迹 | 洞见物联网

点击查看视频 点击查看视频 点击查看视频

openlab_4276841a 1年前
2420 0 0