适用于 ONNX Runtime 的 OpenVINO™ Execution Provider#
适用于 ONNX Runtime 的 OpenVINO™ Execution Provider 是一款专为希望在其推理应用程序中使用 OpenVINO™ 的 ONNX Runtime 开发者设计的产品。该产品提供了 OpenVINO™ 内联优化,只需极少的代码修改即可提升推理性能。
- 适用于 ONNX Runtime 的 OpenVINO™ Execution Provider 可在各种 Intel® 硬件上加速众多 AI 模型的推理,例如
Intel® CPU
Intel® 集成 GPU
Intel® 独立 GPU
Intel® 集成 NPU
安装#
要求#
Ubuntu 18.04、20.04 或 Windows 10 - 64 位
适用于 Windows 和 Linux 的 Python 3.10、3.11、3.12 和 3.13
- 此软件包支持
Intel® CPU
Intel® 集成 GPU
Intel® 独立 GPU
Intel® 集成 NPU
pip3 install onnxruntime-openvino
请为 Windows 单独安装 OpenVINO™ PyPi 软件包。有关 Windows 上的安装说明,请参阅适用于 Windows 的 OpenVINO™ Execution Provider for ONNX Runtime。
适用于 ONNX Runtime 的 OpenVINO™ Execution Provider Linux Wheel 软件包包含预构建的 OpenVINO™ 2025.1.0 版本库,无需单独安装 OpenVINO™。
有关构建和安装的更多详细信息,请参阅构建。
使用方法#
默认情况下,使用 Intel® CPU 运行推理。但是,您可以将默认选项更改为 Intel® 集成 GPU、独立 GPU 或集成 NPU。调用提供程序配置设备类型参数以更改执行推理的硬件。
有关更多 API 调用和环境变量,请参阅使用方法。
示例#
要了解如何使用适用于 ONNX Runtime 的 OpenVINO™ Execution Provider,请浏览示例中的演示。
许可#
适用于 ONNX Runtime 的 OpenVINO™ Execution Provider 遵循 MIT 许可。通过为项目做出贡献,您同意其中的许可和版权条款,并根据这些条款发布您的贡献。
支持#
请通过 GitHub Issues 提交您的问题、功能请求和错误报告。
如何贡献#
我们欢迎社区对适用于 ONNX Runtime 的 OpenVINO™ Execution Provider 做出贡献。如果您有改进的想法
通过 GitHub Issues 分享您的提案。
提交 Pull Request。