ACL 执行提供者

ACL 执行提供者通过 Arm Compute Library 在基于 Arm® 的 CPU 上实现性能加速。

构建

有关构建说明,请参阅构建页面

用法

C/C++

Ort::Env env = Ort::Env{ORT_LOGGING_LEVEL_ERROR, "Default"};
Ort::SessionOptions sf;
bool enable_fast_math = true;
Ort::ThrowOnError(OrtSessionOptionsAppendExecutionProvider_ACL(sf, enable_fast_math));

C API 详情请参阅此处

Python

import onnxruntime

providers = [("ACLExecutionProvider", {"enable_fast_math": "true"})]
sess = onnxruntime.InferenceSession("model.onnx", providers=providers)

性能调优

Arm Compute Library 具有快速数学模式,可以提高 MatMul 和 Conv 算子的性能,但可能略微降低精度。此模式默认禁用。

使用 onnxruntime_perf_test 时,使用标志 -e acl 来启用 ACL 执行提供者。您还可以使用 -i 'enable_fast_math|true' 来启用快速数学模式。

通过执行提供者运行时,Arm Compute Library 使用 ONNX Runtime 算子内线程池。您可以使用 -x 选项控制此线程池的大小。

支持的算子

算子 支持的类型
AveragePool float
BatchNormalization float
Concat float
Conv float, float16
FusedConv float
FusedMatMul float, float16
Gemm float
GlobalAveragePool float
GlobalMaxPool float
MatMul float, float16
MatMulIntegerToFloat uint8, int8, uint8+int8
MaxPool float
NhwcConv float
Relu float
QLinearConv uint8, int8, uint8+int8