正在准备搜索索引...
搜索索引不可用
ONNX Runtime JavaScript API
ONNX Runtime JavaScript API
InferenceSession
WebNNContextOptions
接口 WebNNContextOptions
表示用于创建 WebNN MLContext 的一组选项。
参阅
https://www.w3.org/TR/webnn/#dictdef-mlcontextoptions
interface
WebNNContextOptions
{
deviceType
?:
"cpu"
|
"gpu"
|
"npu"
;
numThreads
?:
number
;
powerPreference
?:
"default"
|
"high-performance"
|
"low-power"
;
}
层级 (
查看完整
)
WebNNContextOptions
WebNNOptionsWithoutMLContext
索引
属性
device
Type?
num
Threads?
power
Preference?
属性
可选
device
Type
device
Type
?:
"cpu"
|
"gpu"
|
"npu"
可选
num
Threads
num
Threads
?:
number
可选
power
Preference
power
Preference
?:
"default"
|
"high-performance"
|
"low-power"
设置
成员可见性
受保护
私有
继承
外部
主题
操作系统
浅色
深色
在本页
device
Type
num
Threads
power
Preference
ONNX Runtime JavaScript API
Env
InferenceSession
Tensor
ConversionUtils
CpuPinnedConstructorParameters
Env
ExternalDataFileDescription
GpuBufferConstructorParameters
InferenceSession
InferenceSessionFactory
MLTensorConstructorParameters
OnnxModelOptions
OptionResizedDimensions
OptionsDimensions
OptionsFormat
OptionsNormalizationParameters
OptionsTensorDataType
OptionsTensorFormat
OptionsTensorLayout
Tensor
TensorConstructor
加载中...
使用
TypeDoc
生成
表示用于创建 WebNN MLContext 的一组选项。
参阅
https://www.w3.org/TR/webnn/#dictdef-mlcontextoptions