跳到主要内容
Link - ONNX 运行时
Menu - ONNX 运行时
Expand - ONNX 运行时
(external link) - ONNX 运行时
Document - ONNX 运行时
Search - ONNX 运行时
Copy - ONNX 运行时
Copied - ONNX 运行时
ONNX Runtime
安装 ONNX Runtime
入门
Python
C++
C
C#
Java
JavaScript
网页
Node.js 绑定
React Native
Objective-C
Julia 和 Ruby API
Windows
移动端
设备上训练
大模型训练
教程
API 基础知识
加速 PyTorch
PyTorch 推理
在多个目标上进行推理
加速 PyTorch 训练
加速 TensorFlow
加速 Hugging Face
部署到 AzureML
部署到移动端
使用 YOLOv8 进行目标检测和姿态估计
Android 移动端图像识别
提高移动端图像分辨率
iOS 移动端目标检测
ORT 移动模型导出助手
网页
使用 ONNX Runtime 构建 Web 应用
'env' 标志和会话选项
使用 WebGPU
使用 WebNN
使用大模型
性能诊断
部署 ONNX Runtime Web
故障排除
使用 ONNX Runtime 和 Next.js 对图像进行分类
用于 JavaScript 中 BERT 任务的自定义 Excel 函数
部署到 IoT 和边缘设备
在 Raspberry Pi 上部署 IoT
部署传统机器学习
使用 C# 进行推理
C# 基础教程
使用 C# 进行 BERT NLP 推理
使用 C# 配置 GPU 的 CUDA
使用 C# 对 ResNet50v2 进行图像识别
使用 C# 进行 Stable Diffusion
使用 C# 和 OpenVINO 进行目标检测
使用 C# 对 Faster RCNN 进行目标检测
设备上训练
构建 Android 应用
构建 iOS 应用
构建 ONNX Runtime
构建用于推理
构建用于训练
使用不同的 EP 构建
构建用于 Web
构建用于 Android
构建用于 iOS
自定义构建
API 文档
生成 API (预览)
教程
Phi-3.5 视觉教程
Phi-3 教程
Phi-2 教程
使用 LoRA 适配器运行
DeepSeek-R1-Distill 教程
在 Snapdragon 设备上运行
API 文档
Python API
C# API
C API
Java API
如何操作
安装
从源代码构建
构建模型
构建 Snapdragon 模型
故障排除
迁移
参考
配置参考
适配器文件规范
执行提供程序
NVIDIA - CUDA
NVIDIA - TensorRT
Intel - OpenVINO™
Intel - oneDNN
Windows - DirectML
Qualcomm - QNN
Android - NNAPI
Apple - CoreML
XNNPACK
AMD - ROCm
AMD - MIGraphX
AMD - Vitis AI
云 - Azure
社区维护的
Arm - ACL
Arm - Arm NN
Apache - TVM
Rockchip - RKNPU
Huawei - CANN
添加新的提供程序
EP 上下文设计
扩展
添加算子
构建
性能
调优性能
性能分析工具
日志记录与跟踪
内存消耗
线程管理
I/O 绑定
故障排除
模型优化
量化 ONNX 模型
Float16 和混合精度模型
图优化
ORT 模型格式
ORT 模型格式运行时优化
Transformers 优化器
使用 Olive 进行端到端优化
设备张量
生态系统
Azure Container for PyTorch (ACPT)
参考
版本发布
兼容性
算子
算子内核
Contrib 算子
自定义算子
精简算子配置文件
架构
引用 ONNX Runtime
ONNX Runtime 中的依赖项管理
GitHub 上的 ONNX Runtime 文档
ONNX Runtime
安装
入门
教程
API 文档
YouTube
GitHub
参考
算子
算子内核
CPU 执行提供程序、CUDA 执行提供程序和 DML 执行提供程序支持的算子内核已在 ONNX Runtime 仓库中记录。
版本
文档
当前主分支
https://github.com/microsoft/onnxruntime/blob/main/docs/OperatorKernels.md
1.20
https://github.com/microsoft/onnxruntime/blob/rel-1.20.0/docs/OperatorKernels.md
1.19
https://github.com/microsoft/onnxruntime/blob/rel-1.19.0/docs/OperatorKernels.md
1.18
https://github.com/microsoft/onnxruntime/blob/rel-1.18.0/docs/OperatorKernels.md
1.17
https://github.com/microsoft/onnxruntime/blob/rel-1.17.0/docs/OperatorKernels.md
1.16
https://github.com/microsoft/onnxruntime/blob/rel-1.16.0/docs/OperatorKernels.md
1.15
https://github.com/microsoft/onnxruntime/blob/rel-1.15.0/docs/OperatorKernels.md
1.14
https://github.com/microsoft/onnxruntime/blob/rel-1.14.0/docs/OperatorKernels.md
1.13
https://github.com/microsoft/onnxruntime/blob/rel-1.13.1/docs/OperatorKernels.md
1.12
https://github.com/microsoft/onnxruntime/blob/rel-1.12.0/docs/OperatorKernels.md
1.11
https://github.com/microsoft/onnxruntime/blob/rel-1.11.0/docs/OperatorKernels.md
1.10
https://github.com/microsoft/onnxruntime/blob/rel-1.10.0/docs/OperatorKernels.md
1.9
https://github.com/microsoft/onnxruntime/blob/rel-1.9.0/docs/OperatorKernels.md
1.8
https://github.com/microsoft/onnxruntime/blob/rel-1.8.0/docs/OperatorKernels.md
1.7
https://github.com/microsoft/onnxruntime/blob/rel-1.7.0/docs/OperatorKernels.md