目录
前言:为什么选择 Jetson Orin Nano
准备工作:主机与设备清单
主机端环境配置(安装 SDK Manager)
使用 SDK Manager 刷机 Orin Nano(JetPack 6)
系统初始化与 JetPack 验证
安装开发依赖与 PyTorch
部署 YOLOv8 模型并进行实时推理
使用 TensorRT 加速与性能优化
常见问题与调试技巧
结语与扩展方向
一、前言:为什么选择 Jetson Orin Nano
Jetson Orin Nano 是 NVIDIA 推出的入门级边缘AI开发平台,搭载 Ampere GPU(1024 CUDA cores),AI算力可达 40 TOPS,比上一代 Jetson Nano 提升约 80 倍。
它原生支持 JetPack 6(基于 Ubuntu 22.04),并预装 CUDA、cuDNN、TensorRT 等核心库,非常适合嵌入式深度学习和AI推理项目。
主要特性:
最高 8GB LPDDR5 内存
支持 PyTorch、TensorFlow、ONNX、TensorRT
完整兼容 DeepStream、TAO Toolkit
功耗低,适合边缘设备部署
二、准备工作:主机与设备清单
主机端(用于刷机)
| 项目 | 推荐配置 |
|---|---|
| 操作系统 | Ubuntu 20.04 或 22.04 (64-bit) |
| 内存 | 16GB 或更高 |
| 存储 | 至少 100GB |
| 网络 | 稳定高速连接 |
| 接口 | USB-A 接口用于连接 Orin Nano |
目标设备(Jetson Orin Nano)
| 项目 | 推荐配置 |
|---|---|
| Jetson Orin Nano 开发板 | 推荐 8GB 版本 |
| 电源 | 5V 4A 电源适配器 |
| NVMe SSD(128GB 以上) | 系统与模型存储 |
| USB Type-C 数据线 | 与主机连接刷机 |
| HDMI 显示器、键鼠 | 初始化配置使用 |
三、主机端环境配置(安装 SDK Manager)
在 Ubuntu 主机上安装 NVIDIA SDK Manager:
sudo apt update sudo apt install wget curl -y wget https://developer.download.nvidia.com/sdkmanager/sdkmanager_1.9.3-10886_amd64.deb sudo apt install ./sdkmanager_1.9.3-10886_amd64.deb
安装完成后,从菜单中启动 SDK Manager。
首次运行时登录 NVIDIA Developer 账号:
https://developer.nvidia.com
四、使用 SDK Manager 刷机 Orin Nano(JetPack 6)
1. 进入 Recovery 模式
关闭 Orin Nano 电源。
使用 USB-C 数据线连接主机与开发板。
按住 Force Recovery 按键并插上电源。
松开按键后,设备进入 Recovery 模式。
在主机端验证连接是否成功:
lsusb
若看到包含 “NVIDIA Corp” 的设备说明,说明进入成功。
2. 启动 SDK Manager 并选择目标设备
在 SDK Manager 中选择:
Product Category: Jetson
Target Hardware: Jetson Orin Nano Developer Kit
JetPack Version: JetPack 6.x (最新版本)
点击 Continue。
3. 开始刷机
在 “Step 02 – Target Operating System” 页面选择:
Installation Type: Flash OS + Install Jetson SDK Components
点击 Flash。
SDK Manager 将自动下载镜像并写入 Orin Nano。
该过程需要约 20–40 分钟,请保持连接稳定。
4. 安装 JetPack 组件
刷机完成后,设备会重启进入系统。
按屏幕提示完成语言、用户和网络配置。
随后 SDK Manager 会自动继续安装 CUDA、cuDNN、TensorRT、DeepStream 等组件。
五、系统初始化与 JetPack 验证
验证系统是否安装成功:
head -n 1 /etc/nv_tegra_release
输出示例:
# R36 (release), REVISION: 1.0, BOARD: orin-nano, CUDA: 12.2
验证 GPU 驱动:
nvidia-smi
若能看到 GPU 信息,即表示 CUDA 驱动加载成功。
六、安装开发依赖与 PyTorch
安装常用依赖:
sudo apt update sudo apt install python3-pip python3-opencv python3-numpy git -y
安装 Jetson 官方 PyTorch 版本(根据 JetPack 版本匹配):
wget https://developer.download.nvidia.com/compute/redist/jp/v60/pytorch/torch-2.1.0-cp310-cp310-linux_aarch64.whl pip3 install torch-2.1.0-cp310-cp310-linux_aarch64.whl pip3 install torchvision==0.16.0
验证 PyTorch GPU 可用性:
import torchprint(torch.cuda.is_available())
输出 True 表示安装成功。
七、部署 YOLOv8 模型并进行实时推理
安装 YOLOv8:
pip3 install ultralytics
运行摄像头实时检测:
yolo detect predict model=yolov8n.pt source=0
在 Orin Nano 上,YOLOv8n 实时推理速度可达约 30–45 FPS。
八、使用 TensorRT 加速与性能优化
导出 TensorRT 引擎文件:
yolo export model=yolov8n.pt format=engine
运行 TensorRT 加速推理:
yolo detect predict model=yolov8n.engine source=0
性能优化技巧:
| 项目 | 建议 |
|---|---|
| 性能模式 | sudo nvpmodel -m 0 && sudo jetson_clocks |
| 散热 | 建议使用风扇防止降频 |
| 存储 | 使用 NVMe SSD 替代 SD 卡 |
| 模型优化 | 采用 FP16 或 INT8 量化模型 |
| 输入分辨率 | 适当降低输入图像尺寸以提高帧率 |
九、常见问题与调试技巧
| 问题 | 可能原因 | 解决方法 |
|---|---|---|
| SDK Manager 无法识别设备 | 未进入 Recovery 模式 | 重新按住 Recovery 键后上电 |
| 刷机失败 | USB 连接或权限问题 | 以 sudo 启动 SDK Manager |
| JetPack 组件未完全安装 | 网络中断 | 重新运行 Install Jetson SDK Components |
| 摄像头无法识别 | 驱动未加载 | 执行 v4l2-ctl --list-devices 检查 |
| PyTorch 安装失败 | 版本不匹配 | 下载与 JetPack 对应版本的 whl 包 |
十、结语与扩展方向
本文详细介绍了 Jetson Orin Nano 从主机准备、SDK Manager 刷机、JetPack 安装到 PyTorch 与 YOLOv8 部署的完整流程。
你现在已经可以在 Orin Nano 上实现实时 AI 推理和边缘计算应用。
接下来推荐继续学习:
DeepStream SDK 多路视频AI推理
TAO Toolkit 模型微调与剪枝
ROS2 + Jetson Orin Nano 实现机器人视觉
TensorRT INT8 模型量化实践
PonyTechLab