分析简单模型的执行#

ONNX Runtime 可以分析模型的执行。此示例展示了如何解释结果。

import numpy
import onnx

import onnxruntime as rt
from onnxruntime.datasets import get_example


def change_ir_version(filename, ir_version=6):
    "onnxruntime==1.2.0 does not support opset <= 7 and ir_version > 6"
    with open(filename, "rb") as f:
        model = onnx.load(f)
    model.ir_version = 6
    if model.opset_import[0].version <= 7:
        model.opset_import[0].version = 11
    return model

让我们加载一个非常简单的模型并进行一些预测。

example1 = get_example("mul_1.onnx")
onnx_model = change_ir_version(example1)
onnx_model_str = onnx_model.SerializeToString()
sess = rt.InferenceSession(onnx_model_str, providers=rt.get_available_providers())
input_name = sess.get_inputs()[0].name

x = numpy.array([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]], dtype=numpy.float32)
res = sess.run(None, {input_name: x})
print(res)
[array([[ 1.,  4.],
       [ 9., 16.],
       [25., 36.]], dtype=float32)]

在运行预测之前,我们需要启用性能分析。

options = rt.SessionOptions()
options.enable_profiling = True
sess_profile = rt.InferenceSession(onnx_model_str, options, providers=rt.get_available_providers())
input_name = sess.get_inputs()[0].name

x = numpy.array([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]], dtype=numpy.float32)

sess.run(None, {input_name: x})
prof_file = sess_profile.end_profiling()
print(prof_file)
onnxruntime_profile__2025-06-12_17-00-15.json

结果以 JSON 格式存储在一个文件中。让我们看看它包含什么。

import json  # noqa: E402

with open(prof_file) as f:
    sess_time = json.load(f)
import pprint  # noqa: E402

pprint.pprint(sess_time)
[{'args': {},
  'cat': 'Session',
  'dur': 61,
  'name': 'model_loading_array',
  'ph': 'X',
  'pid': 7737,
  'tid': 7737,
  'ts': 1},
 {'args': {},
  'cat': 'Session',
  'dur': 189,
  'name': 'session_initialization',
  'ph': 'X',
  'pid': 7737,
  'tid': 7737,
  'ts': 636}]

脚本总运行时间: (0 分 0.018 秒)

由 Sphinx-Gallery 生成的图库