探索Intel OpenVINO的奥秘
目录
🧠 欢迎词
🚀 简介
🧠 训练和推理的区别
🔍 OpenVino 工具包简介
🛠 OpenVino 的三个关键步骤
💡 OpenVino 工具包的关键组件
📊 OpenVino 提供的工具和资源
🌐 快速体验 OpenVino 的方法
🎓 结语
🧠 欢迎词
🚀 简介
🧠 训练和推理的区别
- 训练与推理工作流程的区别
- 模型训练实例
- OpenVino 的推理应用实例
🔍 OpenVino 工具包简介
- OpenVino 的作用和用途
- OpenVino 的优化和部署功能
🛠 OpenVino 的三个关键步骤
- 模型获取
- 模型优化
- 推理引擎的使用
💡 OpenVino 工具包的关键组件
- 模型优化器
- 推理引擎
- 集成库
- OpenCV 计算机视觉库
📊 OpenVino 提供的工具和资源
- 代码示例和演示应用
- Accuracy Checker 实用工具
- 后训练优化工具
- 模型下载器
- 预训练模型库
🌐 快速体验 OpenVino 的方法
- 注册 Intel DevCloud
- 选择适合的 DevCloud 平台
- 探索示例和实验
🎓 结语
🧠 欢迎词
欢迎来到这个由 Grey Matter 和 Intel Distribution of OpenVino 合作创建的视频。我是 Bayncore 的 Stephen Blair-Chappell,是 Intel OneAPI 技术合作伙伴,提供高性能计算(HPC)和人工智能(AI)的培训、咨询和技术支持。这是八个短视频中的最后一个。
🚀 简介
在前几个视频中,我们介绍了七个工具包。而在这个视频中,我们将关注 Intel Distribution of OpenVino 工具包。OpenVino 的名称代表着“开放视觉推理和神经网络优化”,它包含一系列库和工具,可以用来优化和部署推理应用程序。
🧠 训练和推理的区别
在训练和推理工作流程中,你首先会在计算设备上开发和训练模型——这可能是相当计算密集的,需要花费几天甚至几周的时间。在我们的示例中,我们正在为一个交通监控应用程序训练一个识别对象的模型,比如图像中的人、汽车、路边家具等等。
一旦模型被训练好了,你就可以将训练好的模型部署到边缘设备上——正是在这第二阶段使用 OpenVino。你绝对不会在训练阶段使用 OpenVino,只会在推理阶段使用。在我们的示例中,该应用程序用于检测一个人走在铁路线旁边的情况。
在许多推理应用程序中,模型评估需要实时进行,这样主机系统就可以做出适当的响应。你可以使用 OpenVino 的优化功能来提高推理的实时响应。OpenVino 可以优化来自不同框架的训练模型,并部署到不同类型的 Intel 设备上。
🔍 OpenVino 工具包简介
要使用 OpenVino,有三个步骤。首先,你需要从训练环境中获取你的训练模型。第二步是使用 OpenVino 模型优化器对训练模型进行优化。优化器的输出被称为 OpenVino 中间表示(IR),保存在一对描述网络拓扑的文件中,并包含模型的权重和偏置。
第三步是使用推理引擎部署优化后的模型并输出结果。Open Vino 工具包具有一些关键组件。本页面展示了 Windows 安装的内容。Linux 和 macOS 安装也有类似的组件列表...
🛠 OpenVino 的三个关键步骤
- 模型获取:从训练环境获取训练模型。
- 模型优化:使用 OpenVino 模型优化器对训练模型进行优化。
- 推理引擎的使用:部署优化后的模型并输出结果。
💡 OpenVino 工具包的关键组件
- 模型优化器:导入、转换和优化模型,使其适用于 OpenVino 推理引擎。
- 推理引擎:运行深度学习模型的引擎。推理引擎旁边还有一套库,可以轻松地将推理集成到你的应用程序中。
- OpenCV:著名的计算机视觉库,这里的版本是为 Intel® 硬件编译的。
- 代码示例和演示应用:使用 Python 和 C 编写的一系列代码示例和演示应用。
- 其他工具:包括 Accuracy Checker 实用工具、后训练优化工具和模型下载器。通过 Open Model