跳到主内容
Link - ONNX 运行时
Menu - ONNX 运行时
Expand - ONNX 运行时
(external link) - ONNX 运行时
Document - ONNX 运行时
Search - ONNX 运行时
Copy - ONNX 运行时
Copied - ONNX 运行时
ONNX Runtime
安装ONNX Runtime
开始使用
Python
C++
C
C#
Java
JavaScript
Web
Node.js绑定
React Native
Objective-C
Julia和Ruby API
Windows
移动
设备上训练
大型模型训练
教程
API基础
加速PyTorch
PyTorch推理
在多个目标上进行推理
加速PyTorch训练
加速TensorFlow
加速Hugging Face
部署到AzureML
部署到移动设备
使用YOLOv8进行对象检测和姿态估计
Android上的移动图像识别
提高移动设备上的图像分辨率
iOS上的移动对象检测
ORT Mobile模型导出助手
Web
使用ONNX Runtime构建Web应用
“env”标志和会话选项
使用WebGPU
使用WebNN
处理大型模型
性能诊断
部署ONNX Runtime Web
故障排除
使用ONNX Runtime和Next.js分类图像
JavaScript中BERT任务的自定义Excel函数
部署到IoT和边缘设备
Raspberry Pi上的IoT部署
部署传统机器学习
使用C#进行推理
C#基础教程
使用C#进行BERT NLP推理
使用C#配置GPU的CUDA
使用C#中的ResNet50v2进行图像识别
使用C#的Stable Diffusion
使用OpenVINO在C#中进行对象检测
使用Faster RCNN在C#中进行对象检测
设备上训练
构建Android应用程序
构建iOS应用程序
API文档
构建ONNX Runtime
构建用于推理
构建用于训练
使用不同EPs构建
构建用于Web
构建用于Android
构建用于iOS
自定义构建
生成API(预览)
教程
Phi-3.5视觉教程
Phi-3教程
Phi-2教程
使用LoRA适配器运行
DeepSeek-R1-Distill教程
在骁龙设备上运行
API文档
Python API
C# API
C API
Java API
如何操作
安装
从源代码构建
构建模型
为骁龙构建模型
故障排除
迁移
参考
配置参考
适配器文件规范
执行提供者
NVIDIA - CUDA
NVIDIA - TensorRT
Intel - OpenVINO™
Intel - oneDNN
Windows - DirectML
Qualcomm - QNN
Android - NNAPI
Apple - CoreML
XNNPACK
AMD - ROCm
AMD - MIGraphX
AMD - Vitis AI
云 - Azure
社区维护
Arm - ACL
Arm - Arm NN
Apache - TVM
Rockchip - RKNPU
华为 - CANN
添加新提供者
EP上下文设计
NVIDIA - TensorRT RTX
扩展
添加操作符
构建
性能
调整性能
分析工具
日志记录与追踪
内存消耗
线程管理
I/O绑定
故障排除
模型优化
量化ONNX模型
Float16和混合精度模型
图优化
ORT模型格式
ORT模型格式运行时优化
Transformers优化器
使用Olive进行端到端优化
设备张量
生态系统
适用于PyTorch的Azure容器 (ACPT)
参考
发布
兼容性
操作符
操作符内核
Contrib操作符
自定义操作符
精简操作符配置文件
架构
引用ONNX Runtime
ONNX Runtime中的依赖管理
GitHub上的ONNX Runtime文档
ONNX Runtime
安装
开始使用
教程
API文档
YouTube
GitHub
教程
部署传统机器学习
部署传统机器学习模型
ONNX Runtime支持
ONNX-ML
,并可运行从Scikit-learn、LightGBM、XGBoost、LibSVM等库创建的传统机器学习模型。
目录
将模型转换为ONNX
部署模型
将模型转换为ONNX
Scikit-learn转换
Scikit-learn自定义转换
XGBoost转换
LightGBM转换
ONNXMLTools示例
部署模型
[即将推出]
在C#环境中部署Python训练的模型
[即将推出]
无需pkl文件即可安全部署scikit-learn模型