用于推理的 ONNX Runtime



ONNX Runtime 提供了一个高性能的解决方案,用于在不同的软硬件堆栈上推理来自不同源框架(PyTorch、Hugging Face、TensorFlow)的模型。ONNX Runtime 推理利用硬件加速器,支持多种语言(Python、C++、C#、C、Java 等)的 API,并可在云服务器、边缘和移动设备以及 Web 浏览器中使用。


了解如何安装 ONNX Runtime 以进行推理 →

优势

提高推理延迟、吞吐量、内存利用率和二进制大小

使用设备专用加速器在不同的硬件上运行

使用通用接口来运行在不同框架中训练的模型

在 C#/C++/Java 应用程序中部署经典的 ML Python 模型

ONNX Runtime Mobile



ONNX Runtime Mobile 使用与基于云的推理相同的 API 在移动设备上运行模型。开发人员可以使用他们选择的移动语言和开发环境,以 Swift、Objective-C、Java、Kotlin、JavaScript、C 和 C++ 将 AI 添加到 Android、iOS、react-native、MAUI/Xamarin 应用程序中。


示例

图像分类

此示例应用程序使用图像分类来持续分类从设备摄像头检测到的物体,并在屏幕上显示最可能的推理结果。

语音识别

此示例应用程序使用语音识别来转录设备录制的音频中的语音。

物体检测

此示例应用程序使用物体检测来持续检测 iOS 设备后置摄像头看到的帧中的物体,并显示检测到的物体的边界框、检测到的类别和相应的推理置信度。

问答

此示例应用程序展示了如何使用带有预处理和后处理的问答模型。
在 GitHub 上查看更多 ONNX Runtime Mobile 的示例。 →

ONNX Runtime Web



ONNX Runtime Web 允许 JavaScript 开发人员在浏览器中运行和部署机器学习模型,这为跨平台移植提供了一个通用的实现。这可以简化分发体验,因为它避免了额外的库和驱动程序安装。


视频教程:使用 ONNX Runtime Web 在 JavaScript 中进行推理 →

示例


ONNX Runtime Web 演示 是一个交互式演示门户,展示了 ONNX Runtime Web 在 VueJS 中的实时使用。查看这些示例以体验 ONNX Runtime Web 的强大功能。

图像分类

此示例演示了如何使用 GitHub 存储库模板构建使用 ONNX Runtime Web 的图像分类 Web 应用程序。

语音识别

此示例演示了如何使用 ONNX Runtime Web 和浏览器的音频接口在浏览器中运行 whisper tiny.en。

自然语言处理 (NLP)

此示例演示了如何创建自定义 Excel 函数,以使用 ONNX Runtime Web 实现 BERT NLP 模型,从而在电子表格任务中实现深度学习。

设备端训练



ONNX Runtime 设备端训练扩展了推理生态系统,以利用设备上的数据来训练模型。


了解有关设备端训练的更多信息 →