为设备端训练构建

先决条件

  • Python 3.x
  • CMake

训练阶段的构建说明

  1. 克隆存储库

     git clone --recursive https://github.com/Microsoft/onnxruntime.git
     cd onnxruntime
    
  2. 设备端训练 构建 ONNX Runtime

    a. 对于 Windows

     .\build.bat --config RelWithDebInfo --cmake_generator "Visual Studio 17 2022" --build_shared_lib --parallel --enable_training_apis
    

    b. 对于 Linux

     ./build.sh --config RelWithDebInfo --build_shared_lib --parallel --enable_training_apis
    

    c. 对于 Android

    请参阅 Android 构建说明 并添加 --enable_training_apis 构建标志。

    d. 对于 MacOS

    请参阅 macOS 推理构建说明 并添加 --enable_training_apis 构建标志。

    e. 对于 iOS

    请参阅 iOS 构建说明 并添加 --enable_training_apis 构建标志。

    f. 对于 web

    请参阅 web 构建说明

注意

  • 要构建 C# 绑定,请将 --build_nuget 标志添加到上面的构建命令。

  • 要构建 Python wheel
    • 请将 --build_wheel 标志添加到上面的构建命令。
    • 使用 python -m pip install build/Linux/RelWithDebInfo/dist/*.whl 安装 wheel
  • config 标志可以是 DebugRelWithDebInfoReleaseMinSizeRel 之一。使用适合您用例的那个。

  • --enable_training_apis 标志可以与 --minimal_build 标志结合使用。

  • 生成训练工件的离线阶段只能使用 Python 完成(使用 --build_wheel 标志)。

  • 上面的构建命令仅为 cpu 执行提供程序构建。要为 cuda 执行提供程序构建,请添加以下标志
    • --use_cuda
    • --cuda_home {cuda 主目录的目录,例如 /usr/local/cuda/}
    • --cudnn_home {cuda 主目录的目录,例如 /usr/local/cuda/}
    • --cuda_version={版本,例如 11.8}

为大型模型训练构建

目录

Linux

./build.sh --config RelWithDebInfo --build_shared_lib --parallel --enable_training

GPU / CUDA

先决条件

默认 NVIDIA GPU 构建需要系统上安装 CUDA 运行时库

构建说明

  1. 使用以下命令检出此代码仓库:

     git clone https://github.com/microsoft/onnxruntime
     cd onnxruntime
    
  2. 设置环境变量:调整路径以适应您构建机器上的位置
     export CUDA_HOME=<location for CUDA libs> # e.g. /usr/local/cuda
     export CUDNN_HOME=<location for cuDNN libs> # e.g. /usr/local/cuda
     export CUDACXX=<location for NVCC> #e.g. /usr/local/cuda/bin/nvcc
    
  3. 创建 ONNX Runtime Python wheel

    ./build.sh --config=RelWithDebInfo --enable_training --build_wheel --use_cuda --cuda_home {location of cuda libs eg. /usr/local/cuda/} --cudnn_home {location of cudnn libs eg./usr/local/cuda/} --cuda_version={version for eg. 11.8}
    
  4. ./build/Linux/RelWithDebInfo/dist 中安装适用于 ONNX Runtime Training 的 .whl 文件。

     python -m pip install build/Linux/RelWithDebInfo/dist/*.whl
    

就是这样!构建完成后,您应该能够在您的项目中使用 ONNX Runtime 库和可执行文件。请注意,这些步骤是通用的,可能需要根据您的具体环境和要求进行调整。有关更多信息,您可以在 ONNX Runtime GitHub 社区 寻求帮助。

GPU / ROCm

先决条件

默认 AMD GPU 构建需要系统上安装 ROCm 软件工具包

构建说明

  1. 使用以下命令检出此代码仓库:

     git clone https://github.com/microsoft/onnxruntime
     cd onnxruntime
    
  2. 创建 ONNX Runtime Python wheel

    ./build.sh --config Release --enable_training --build_wheel --parallel --skip_tests --use_rocm --rocm_home /opt/rocm
    
  3. ./build/Linux/RelWithDebInfo/dist 中安装适用于 ONNX Runtime Training 的 .whl 文件。

     python -m pip install build/Linux/RelWithDebInfo/dist/*.whl
    

DNNL 和 MKLML

构建说明

Linux

./build.sh --enable_training --use_dnnl

Windows

.\build.bat --enable_training --use_dnnl

添加 --build_wheel 以构建 ONNX Runtime wheel。

这将在 build/Linux/RelWithDebInfo/dist 中生成用于 ONNX Runtime Training 的 .whl 文件。