ACL 执行提供者
ACL 执行提供者通过 Arm Compute Library 在基于 Arm® 的 CPU 上实现性能加速。
构建
有关构建说明,请参阅构建页面。
用法
C/C++
Ort::Env env = Ort::Env{ORT_LOGGING_LEVEL_ERROR, "Default"};
Ort::SessionOptions sf;
bool enable_fast_math = true;
Ort::ThrowOnError(OrtSessionOptionsAppendExecutionProvider_ACL(sf, enable_fast_math));
C API 详情请参阅此处。
Python
import onnxruntime
providers = [("ACLExecutionProvider", {"enable_fast_math": "true"})]
sess = onnxruntime.InferenceSession("model.onnx", providers=providers)
性能调优
Arm Compute Library 具有快速数学模式,可以提高 MatMul 和 Conv 算子的性能,但可能略微降低精度。此模式默认禁用。
使用 onnxruntime_perf_test 时,使用标志 -e acl
来启用 ACL 执行提供者。您还可以使用 -i 'enable_fast_math|true'
来启用快速数学模式。
通过执行提供者运行时,Arm Compute Library 使用 ONNX Runtime 算子内线程池。您可以使用 -x
选项控制此线程池的大小。
支持的算子
算子 | 支持的类型 |
---|---|
AveragePool | float |
BatchNormalization | float |
Concat | float |
Conv | float, float16 |
FusedConv | float |
FusedMatMul | float, float16 |
Gemm | float |
GlobalAveragePool | float |
GlobalMaxPool | float |
MatMul | float, float16 |
MatMulIntegerToFloat | uint8, int8, uint8+int8 |
MaxPool | float |
NhwcConv | float |
Relu | float |
QLinearConv | uint8, int8, uint8+int8 |