Jetson AGX Orin部署yolo7tesnorRT
时间: 2025-03-20 09:05:42 浏览: 54
### 在 Jetson AGX Orin 上使用 TensorRT 部署 YOLOv7
要在 Jetson AGX Orin 上通过 TensorRT 部署 YOLOv7,可以按照以下方式实现:
#### 1. 环境准备
确保已经安装了适用于 Jetson AGX Orin 的必要软件包和库。这包括但不限于 PyTorch 和 torchvision 的正确版本配置[^3]。如果尚未完成此操作,则可以通过 Conda 创建一个新的虚拟环境并克隆已有的 Torch 环境来简化设置过程。
```bash
conda create --name yolov7_tensorrt --clone torch3.8
```
接着激活新创建的环境,并验证其是否正常工作。
#### 2. 安装 TensorRT 及相关依赖项
为了支持 TensorRT 加速推理功能,在目标设备上需先安装最新版 TensorRT SDK。可以从 NVIDIA 开发者网站获取适合 Jetpack 版本对应的 TensorRT 软件包。此外还需确认 CUDA 工具链以及 cuDNN 库均已就绪[^2]。
#### 3. 修改 `requirements.txt` 文件
进入 YOLOv7 源码目录后编辑 `requirements.txt` ,加入对 ONNX 导出器的支持以及其他可能需要用到的 Python 扩展模块。例如添加如下几行内容到文件末尾:
```plaintext
onnx==1.10.2
onnx-simplifier>=0.3.6,<0.4
tensorrt>=8.0.0,<9.0.0
```
保存更改后的清单文档以便后续 pip 自动解析这些新增需求。
#### 4. 将模型转换成 ONNX 格式
利用官方脚本或者自定义逻辑把训练好的权重参数导出为通用中间表示形式——ONNX Model。通常情况下执行命令类似于这样子的形式:
```python
import torch
from models.experimental import attempt_load
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model = attempt_load('weights/best.pt', map_location=device) # 加载预训练模型
dummy_input = torch.randn(1, 3, 640, 640).to(device)
torch.onnx.export(
model,
dummy_input,
"yolov7.onnx",
opset_version=11,
do_constant_folding=True,
input_names=['input'],
output_names=['output']
)
print("Exported to ONNX successfully!")
```
上述代码片段展示了如何基于原始框架实例化网络结构并将之序列化至磁盘作为 `.onnx` 文件存储下来[^1]。
#### 5. 构建 TRT Engine
最后一步就是借助 TensorRT API 来加载先前生成的那个静态图描述符进而编译成为高效的运行时引擎对象供实际预测调用。这里推荐参考开源项目 **TensorRT-Alpha** 提供的一系列示范程序学习具体实践细节:
```cpp
#include <NvInfer.h>
// ... other includes ...
int main(int argc, char *argv[]) {
// Initialize logger and builder objects.
nvinfer1::ILogger gLogger;
auto builder = nvinfer1::createInferBuilder(gLogger);
// Set max workspace size (e.g., 1GB).
const uint64_t MAX_WORKSPACE_SIZE = 1 << 30;
IBuilderConfig* config = builder->createBuilderConfig();
config->setMaxWorkspaceSize(MAX_WORKSPACE_SIZE);
// Load the ONNX file into memory...
std::ifstream onnxFile("yolov7.onnx", std::ios::binary);
assert(onnxFile.good());
std::vector<char> buffer((std::istreambuf_iterator<char>(onnxFile)), std::istreambuf_iterator<char>());
// Build engine from parsed network definition.
IParseNetworkDefinition parseNetDef(buffer.data(), buffer.size());
ICudaEngine* engine = builder->buildCudaEngine(parseNetDef.get());
// Serialize & save serialized engine data for future reuse without recompilation.
void* ptr;
size_t sz = engine->serialize(&ptr);
ofstream outFile("yolov7.trt");
outFile.write(reinterpret_cast<const char*>(ptr), sz);
}
```
以上 C++ 示例说明了怎样读取之前产生的 ONNX 描述并通过 TensorRT Builder 接口构建最终可部署的目标产物即所谓的 “TRT Engine”。
---
阅读全文
相关推荐



















