当前位置:首页 > 系统教程 > 正文

Ubuntu下C++ onnxruntime库完全安装使用指南(从零开始深度学习推理)

Ubuntu下C++ onnxruntime库完全安装使用指南(从零开始深度学习推理)

一步步教你安装配置并运行第一个推理程序

在Ubuntu系统上进行深度学习推理onnxruntime库是一个高性能的选择。本文详细讲解Ubuntu安装onnxruntime的步骤,并展示如何在C++中使用它。无论你是新手还是老手,都可以通过这篇C++ onnxruntime教程快速上手。

1. 更新系统与安装依赖

打开终端,执行以下命令更新包列表并安装必要的工具(如cmake、g++):

sudo apt updatesudo apt install -y cmake g++ wget

2. 下载onnxruntime预编译库

为了简化onnxruntime库使用,我们直接下载预编译版本。访问GitHub Releases或者使用wget下载适用于Ubuntu的版本(例如1.15.1):

wget https://github.com/microsoft/onnxruntime/releases/download/v1.15.1/onnxruntime-linux-x64-1.15.1.tgztar -xzf onnxruntime-linux-x64-1.15.1.tgz
Ubuntu下C++ onnxruntime库完全安装使用指南(从零开始深度学习推理) Ubuntu  C++ onnxruntime 深度学习推理 第1张

3. 配置环境变量(可选)

为了方便编译,可以将onnxruntime的路径添加到环境变量,或者直接在编译时指定路径。

4. 编写C++推理代码

创建一个C++文件 inference.cpp,使用onnxruntime库加载一个ONNX模型并执行推理。以下是一个简单的示例(假设你有一个模型model.onnx):

#include #include #include int main() {    Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test");    Ort::SessionOptions session_options;    session_options.SetIntraOpNumThreads(1);    const char* model_path = "model.onnx";    Ort::Session session(env, model_path, session_options);    // 打印模型信息等...    std::cout << "Model loaded successfully!" << std::endl;    return 0;}

5. 编译代码

使用g++编译,需要链接onnxruntime库。假设onnxruntime解压在~/onnxruntime-linux-x64-1.15.1,编译命令如下:

g++ inference.cpp -I ~/onnxruntime-linux-x64-1.15.1/include -L ~/onnxruntime-linux-x64-1.15.1/lib -lonnxruntime -o inference

如果希望运行时找到库,可以设置LD_LIBRARY_PATH:

export LD_LIBRARY_PATH=~/onnxruntime-linux-x64-1.15.1/lib:$LD_LIBRARY_PATH./inference

6. 运行验证

如果输出"Model loaded successfully!",说明Ubuntu安装onnxruntime成功,并且可以在C++中使用。现在你可以开始进行深度学习推理了。

总结:通过这篇C++ onnxruntime教程,你学会了在Ubuntu上安装和使用onnxruntime库。更多高级用法请参考官方文档。