表示 ONNX 模型的运行时实例。

interface InferenceSession {
    inputMetadata: readonly ValueMetadata[];
    inputNames: readonly string[];
    outputMetadata: readonly ValueMetadata[];
    outputNames: readonly string[];
    endProfiling(): void;
    release(): Promise<void>;
    run(feeds, options?): Promise<OnnxValueMapType>;
    run(feeds, fetches, options?): Promise<OnnxValueMapType>;
    startProfiling(): void;
}

属性

inputMetadata: readonly ValueMetadata[]

获取已加载模型的输入元数据。

inputNames: readonly string[]

获取已加载模型的输入名称。

outputMetadata: readonly ValueMetadata[]

获取已加载模型的输出元数据。

outputNames: readonly string[]

获取已加载模型的输出名称。

方法

  • 使用给定的“feeds”和“options”异步执行模型。

    参数

    • feeds: OnnxValueMapType

      模型输入的表示。详见 InferenceSession.InputType 的类型说明。

    • 可选 options: RunOptions

      可选。一组控制模型推理行为的选项。

    返回 Promise<OnnxValueMapType>

    一个解析为映射的 Promise,该映射使用输出名称作为键,OnnxValue 作为对应值。

  • 使用给定的“feeds”、“fetches”和“options”异步执行模型。

    参数

    • feeds: OnnxValueMapType

      模型输入的表示。详见 InferenceSession.InputType 的类型说明。

    • fetches: FetchesType

      模型输出的表示。详见 InferenceSession.OutputType 的类型说明。

    • 可选 options: RunOptions

      可选。一组控制模型推理行为的选项。

    返回 Promise<OnnxValueMapType>

    一个解析为映射的 Promise,该映射使用输出名称作为键,OnnxValue 作为对应值。

使用 TypeDoc 生成