ONNX Runtime 用于推理



ONNX Runtime 提供高性能的推理解决方案,用于推断来自不同源框架(PyTorch、Hugging Face、TensorFlow)的模型,可在不同的软硬件堆栈上运行。ONNX Runtime 推理利用硬件加速器,支持多种语言(Python、C++、C#、C、Java 等)的 API,并可在云服务器、边缘和移动设备以及网页浏览器中运行。


了解如何安装 ONNX Runtime 进行推理 →

优势

提高推理延迟、吞吐量、内存利用率和二进制文件大小

使用特定于设备的加速器在不同硬件上运行

使用通用接口运行在不同框架中训练的模型

在 C#/C++/Java 应用程序中部署经典的 ML Python 模型

ONNX Runtime 移动版



ONNX Runtime 移动版在移动设备上运行模型,使用与云端推理相同的 API。开发人员可以选择其移动开发语言和环境,将 AI 添加到使用 Swift、Objective-C、Java、Kotlin、JavaScript、C 和 C++ 编写的 Android、iOS、React Native、MAUI/Xamarin 应用程序中。


示例

图像分类

此示例应用使用图像分类功能,实时连续分类设备摄像头检测到的对象,并在屏幕上显示最有可能的推理结果。

语音识别

此示例应用使用语音识别功能,转录设备录制的音频中的语音。

对象检测

此示例应用使用对象检测功能,实时连续检测 iOS 设备后置摄像头画面中的对象,并显示检测到的对象的边界框、检测到的类别和相应的推理置信度。

问答

此示例应用展示了问答模型在预处理和后处理中的用法。
在 GitHub 上查看更多 ONNX Runtime 移动版示例。 →

ONNX Runtime 网页版



ONNX Runtime 网页版允许 JavaScript 开发人员在浏览器中运行和部署机器学习模型,这提供了跨平台可移植性,并采用通用实现。这可以简化分发体验,因为它避免了额外的库和驱动程序安装。


视频教程:使用 ONNX Runtime 网页版在 JavaScript 中进行推理 →

示例


ONNX Runtime 网页版演示是一个交互式演示门户,展示了 ONNX Runtime 网页版在 VueJS 中的实时使用情况。查看这些示例,体验 ONNX Runtime 网页版的强大功能。

图像分类

此示例演示了如何使用 GitHub 存储库模板,通过 ONNX Runtime 网页版构建图像分类 Web 应用。

语音识别

此示例演示了如何使用 ONNX Runtime 网页版和浏览器的音频接口,在浏览器中运行 whisper tiny.en。

自然语言处理 (NLP)

此示例演示了如何创建自定义 Excel 函数,以使用 ONNX Runtime 网页版实现 BERT NLP 模型,从而在电子表格任务中启用深度学习。

设备端训练



ONNX Runtime 设备端训练扩展了推理生态系统,以利用设备上的数据来训练模型。


了解更多关于设备端训练的信息 →