logoPonyTechLab

马兆鑫的AI与深度学习博客

从零开始玩转 Jetson Orin Nano:完整刷机与边缘AI部署教程(附PyTorch与TensorRT优化)

目录

  1. 前言:为什么选择 Jetson Orin Nano

  2. 准备工作:主机与设备清单

  3. 主机端环境配置(安装 SDK Manager)

  4. 使用 SDK Manager 刷机 Orin Nano(JetPack 6)

  5. 系统初始化与 JetPack 验证

  6. 安装开发依赖与 PyTorch

  7. 部署 YOLOv8 模型并进行实时推理

  8. 使用 TensorRT 加速与性能优化

  9. 常见问题与调试技巧

  10. 结语与扩展方向


一、前言:为什么选择 Jetson Orin Nano

Jetson Orin Nano 是 NVIDIA 推出的入门级边缘AI开发平台,搭载 Ampere GPU(1024 CUDA cores),AI算力可达 40 TOPS,比上一代 Jetson Nano 提升约 80 倍。
它原生支持 JetPack 6(基于 Ubuntu 22.04),并预装 CUDA、cuDNN、TensorRT 等核心库,非常适合嵌入式深度学习和AI推理项目。

主要特性:

  • 最高 8GB LPDDR5 内存

  • 支持 PyTorch、TensorFlow、ONNX、TensorRT

  • 完整兼容 DeepStream、TAO Toolkit

  • 功耗低,适合边缘设备部署


二、准备工作:主机与设备清单

主机端(用于刷机)

项目 推荐配置
操作系统 Ubuntu 20.04 或 22.04 (64-bit)
内存 16GB 或更高
存储 至少 100GB
网络 稳定高速连接
接口 USB-A 接口用于连接 Orin Nano

目标设备(Jetson Orin Nano)

项目 推荐配置
Jetson Orin Nano 开发板 推荐 8GB 版本
电源 5V 4A 电源适配器
NVMe SSD(128GB 以上) 系统与模型存储
USB Type-C 数据线 与主机连接刷机
HDMI 显示器、键鼠 初始化配置使用

三、主机端环境配置(安装 SDK Manager)

在 Ubuntu 主机上安装 NVIDIA SDK Manager:

sudo apt update
sudo apt install wget curl -y
wget https://developer.download.nvidia.com/sdkmanager/sdkmanager_1.9.3-10886_amd64.deb
sudo apt install ./sdkmanager_1.9.3-10886_amd64.deb

安装完成后,从菜单中启动 SDK Manager。

首次运行时登录 NVIDIA Developer 账号:
https://developer.nvidia.com


四、使用 SDK Manager 刷机 Orin Nano(JetPack 6)

1. 进入 Recovery 模式

  1. 关闭 Orin Nano 电源。

  2. 使用 USB-C 数据线连接主机与开发板。

  3. 按住 Force Recovery 按键并插上电源。

  4. 松开按键后,设备进入 Recovery 模式。

在主机端验证连接是否成功:

lsusb

若看到包含 “NVIDIA Corp” 的设备说明,说明进入成功。


2. 启动 SDK Manager 并选择目标设备

在 SDK Manager 中选择:

  • Product Category: Jetson

  • Target Hardware: Jetson Orin Nano Developer Kit

  • JetPack Version: JetPack 6.x (最新版本)

点击 Continue。


3. 开始刷机

在 “Step 02 – Target Operating System” 页面选择:

  • Installation Type: Flash OS + Install Jetson SDK Components

点击 Flash。
SDK Manager 将自动下载镜像并写入 Orin Nano。

该过程需要约 20–40 分钟,请保持连接稳定。


4. 安装 JetPack 组件

刷机完成后,设备会重启进入系统。
按屏幕提示完成语言、用户和网络配置。
随后 SDK Manager 会自动继续安装 CUDA、cuDNN、TensorRT、DeepStream 等组件。


五、系统初始化与 JetPack 验证

验证系统是否安装成功:

head -n 1 /etc/nv_tegra_release

输出示例:

# R36 (release), REVISION: 1.0, BOARD: orin-nano, CUDA: 12.2

验证 GPU 驱动:

nvidia-smi

若能看到 GPU 信息,即表示 CUDA 驱动加载成功。


六、安装开发依赖与 PyTorch

安装常用依赖:

sudo apt update
sudo apt install python3-pip python3-opencv python3-numpy git -y

安装 Jetson 官方 PyTorch 版本(根据 JetPack 版本匹配):

wget https://developer.download.nvidia.com/compute/redist/jp/v60/pytorch/torch-2.1.0-cp310-cp310-linux_aarch64.whl
pip3 install torch-2.1.0-cp310-cp310-linux_aarch64.whl
pip3 install torchvision==0.16.0

验证 PyTorch GPU 可用性:

import torchprint(torch.cuda.is_available())

输出 True 表示安装成功。


七、部署 YOLOv8 模型并进行实时推理

安装 YOLOv8:

pip3 install ultralytics

运行摄像头实时检测:

yolo detect predict model=yolov8n.pt source=0

在 Orin Nano 上,YOLOv8n 实时推理速度可达约 30–45 FPS。


八、使用 TensorRT 加速与性能优化

导出 TensorRT 引擎文件:

yolo export model=yolov8n.pt format=engine

运行 TensorRT 加速推理:

yolo detect predict model=yolov8n.engine source=0

性能优化技巧:

项目 建议
性能模式 sudo nvpmodel -m 0 && sudo jetson_clocks
散热 建议使用风扇防止降频
存储 使用 NVMe SSD 替代 SD 卡
模型优化 采用 FP16 或 INT8 量化模型
输入分辨率 适当降低输入图像尺寸以提高帧率

九、常见问题与调试技巧

问题 可能原因 解决方法
SDK Manager 无法识别设备 未进入 Recovery 模式 重新按住 Recovery 键后上电
刷机失败 USB 连接或权限问题 以 sudo 启动 SDK Manager
JetPack 组件未完全安装 网络中断 重新运行 Install Jetson SDK Components
摄像头无法识别 驱动未加载 执行 v4l2-ctl --list-devices 检查
PyTorch 安装失败 版本不匹配 下载与 JetPack 对应版本的 whl 包

十、结语与扩展方向

本文详细介绍了 Jetson Orin Nano 从主机准备、SDK Manager 刷机、JetPack 安装到 PyTorch 与 YOLOv8 部署的完整流程。
你现在已经可以在 Orin Nano 上实现实时 AI 推理和边缘计算应用。

接下来推荐继续学习:

  • DeepStream SDK 多路视频AI推理

  • TAO Toolkit 模型微调与剪枝

  • ROS2 + Jetson Orin Nano 实现机器人视觉

  • TensorRT INT8 模型量化实践


avatar

Pony

深度学习爱好者和技术研究者。专注于人工智能、边缘计算及计算机视觉领域的开发与应用。

现居地:陕西省-西安市

Email:zhaoxin.ma@chd.edu.cn

Categories