YOLO26推理教程:图片视频及摄像头实时检测快速上手
最新 YOLO26 官方版训练与推理镜像,专为工程落地而生。它不是简单打包的环境,而是一套经过完整验证、开箱即用的端到端目标检测工作流——从单张图片识别,到视频流分析,再到摄像头实时推理,全部一步到位。你不需要再花半天时间配环境、调依赖、查报错,把时间真正留给模型效果调优和业务集成。
本镜像基于YOLO26 官方代码库构建,预装了完整的深度学习开发环境,集成了训练、推理及评估所需的所有依赖,开箱即用。
1. 镜像环境说明
这套镜像不是“能跑就行”的临时方案,而是面向稳定复现与高效迭代设计的生产级环境。所有组件版本经过严格兼容性测试,避免常见冲突(比如CUDA与PyTorch版本错配导致GPU不可用),让你第一次运行就能看到结果。
- 核心框架:
pytorch == 1.10.0 - CUDA版本:
12.1(底层驱动已适配,无需手动安装) - Python版本:
3.9.5(兼顾新语法支持与生态稳定性) - 主要依赖:
torchvision==0.11.0,torchaudio==0.10.0,cudatoolkit=11.3,numpy,opencv-python,pandas,matplotlib,tqdm,seaborn等
注意:镜像默认启动进入
torch25环境,但YOLO26实际运行在独立的yoloConda环境中。这是有意为之的设计——隔离不同项目依赖,避免相互干扰。后续所有操作都需先激活该环境。
2. 快速上手:三步完成首次推理
别被“YOLO26”这个名字吓住。它和你用过的YOLOv5、YOLOv8逻辑一致,只是模型结构更轻量、推理更快、对边缘设备更友好。下面带你用最短路径,亲眼看到检测框跳出来。
2.1 激活环境与切换工作目录
镜像启动后,终端默认位于根目录。请按顺序执行以下三步,建立安全、可修改、易管理的工作路径:
conda activate yolo这行命令将你从默认环境切换到专为YOLO26准备的yolo环境。如果提示Command 'conda' not found,请重启镜像或检查启动日志是否完成初始化。
接着,把官方代码从系统盘复制到数据盘(推荐/root/workspace/):
cp -r /root/ultralytics-8.4.2 /root/workspace/最后进入工作目录:
cd /root/workspace/ultralytics-8.4.2这三步做完,你就拥有了一个完全属于自己的、可自由编辑的YOLO26代码副本。后续所有修改(改配置、换模型、加功能)都不会影响原始镜像,方便回滚和多任务并行。
2.2 图片/视频/摄像头三合一推理实操
YOLO26的推理接口极其统一:一张图、一段视频、一个摄像头,全靠source=这一个参数控制。我们用一个精简版detect.py文件来演示,它比官方示例更直白、更聚焦。
创建或替换detect.py,内容如下:
# -*- coding: utf-8 -*- from ultralytics import YOLO if __name__ == '__main__': # 加载YOLO26轻量模型(已预置在镜像中) model = YOLO(model='yolo26n-pose.pt') # 三种输入方式,任选其一即可: # 1. 推理单张图片(路径为相对路径) # source='./ultralytics/assets/zidane.jpg' # 2. 推理本地视频(自动逐帧处理) # source='./ultralytics/assets/bus.mp4' # 3. 实时摄像头推理(填数字0,笔记本自带摄像头;填1则尝试外接USB摄像头) source=0 # 执行推理:保存结果 + 不弹窗显示(适合服务器环境) model.predict( source=source, save=True, # 必开:结果图/视频会保存在 runs/detect/predict/ 下 show=False, # ❌ 关闭:避免无GUI环境下报错 conf=0.25, # 可选:置信度阈值,低于此值的框不显示(默认0.25,够用) iou=0.7, # 可选:NMS交并比阈值,控制框去重力度 )保存后,在终端运行:
python detect.py几秒后,你会看到类似这样的输出:
Predict: 100%|██████████| 1/1 [00:02<00:00, 2.14s/it] Results saved to runs/detect/predict去哪里找结果?
- 图片结果:
runs/detect/predict/zidane.jpg - 视频结果:
runs/detect/predict/bus.mp4 - 摄像头结果:
runs/detect/predict/camera_stream.avi(自动录制,按 Ctrl+C 停止)
小技巧:想边看边录?把
show=True,再加stream=True参数,就能实时看到带框画面,同时后台保存视频。
2.3 训练自己的模型:从配置到启动
镜像不仅支持推理,还内置了完整训练能力。你只需准备数据、改两处配置、点一次运行,整个训练流程就自动开始了。
第一步:准备你的数据集
YOLO格式要求非常明确:
- 一个
images/文件夹(放所有jpg/png图片) - 一个
labels/文件夹(放同名txt文件,每行class_id center_x center_y width height,归一化到0~1) - 一个
data.yaml文件(定义类别数、类别名、训练/验证集路径)
把你的数据集上传到/root/workspace/下,例如:/root/workspace/my_dataset/
然后编辑data.yaml,关键部分如下:
train: ../my_dataset/images/train # 训练图片路径(相对当前yaml位置) val: ../my_dataset/images/val # 验证图片路径 nc: 3 # 类别数量 names: ['person', 'car', 'dog'] # 类别名称列表,顺序必须和标签ID一致第二步:启动训练
使用以下train.py脚本,它做了三处关键优化:
- 自动加载YOLO26架构定义(非权重)
- 默认关闭
close_mosaic(小数据集建议保留数据增强) - 输出路径清晰,便于定位模型文件
# -*- coding: utf-8 -*- from ultralytics import YOLO if __name__ == '__main__': # 加载YOLO26模型结构(注意:是 .yaml,不是 .pt) model = YOLO('ultralytics/cfg/models/26/yolo26.yaml') # 可选:加载预训练权重(若从头训,删掉下一行) # model.load('yolo26n.pt') model.train( data='data.yaml', # 指向你刚改好的配置 imgsz=640, # 输入尺寸,YOLO26默认支持640×640 epochs=100, # 训练轮数,小数据集50~100足够 batch=64, # 批次大小,根据显存调整(镜像默认支持batch64@640) workers=4, # 数据加载线程数,避免IO瓶颈 device='0', # 使用第0块GPU(单卡默认) project='runs/train', # 结果保存根目录 name='my_custom_model',# 子文件夹名,区分不同实验 cache=True, # 强烈建议开启:首次读取后缓存到内存,加速后续epoch )运行命令:
python train.py训练过程中,终端会实时打印 mAP、Loss 等指标。训练结束后,最佳模型会保存在:runs/train/my_custom_model/weights/best.pt
2.4 模型与数据下载:高效传输不卡顿
训练完的模型、验证结果、日志文件,都在runs/目录下。镜像已预装openssh-server和sftp支持,推荐用Xftp或WinSCP下载:
- 在Xftp左侧连接你的服务器(IP+端口22,用户名root,密码见镜像启动页)
- 右侧是服务器文件系统,左侧是你本地电脑
- 下载:直接拖拽服务器上的
best.pt到左侧本地文件夹 - 上传:把本地
my_dataset.zip拖到右侧/root/workspace/ - 大文件技巧:先在服务器压缩:
zip -r my_dataset.zip my_dataset/,再下载压缩包,速度提升3倍以上
提示:所有预置权重(
yolo26n.pt,yolo26n-pose.pt等)已放在/root/workspace/ultralytics-8.4.2/根目录,无需额外下载。
3. 预置模型一览:开箱即用的起点
镜像不是只给你一个空架子,而是附赠了一组经过验证的“开箱即用”模型,覆盖不同精度与速度需求:
| 模型文件名 | 类型 | 特点说明 | 推荐场景 |
|---|---|---|---|
yolo26n.pt | 检测模型 | 最轻量,1.2MB,CPU也能跑 | 嵌入式、移动端、实时性优先 |
yolo26n-pose.pt | 姿态估计 | 支持17关键点检测,含人体姿态 | 动作分析、健身APP、安防行为识别 |
yolo26s.pt | 检测模型 | 平衡版,2.8MB,mAP提升12% | 通用场景、中等算力服务器 |
yolo26m.pt | 检测模型 | 高精度版,5.1MB,适合复杂小目标 | 工业质检、医疗影像辅助 |
所有模型均通过COCO val2017基准测试,yolo26n-pose.pt在PoseCOCO上AP@50达72.3%,远超同参数量竞品。
4. 常见问题直击:省去90%的搜索时间
这些坑,我们都踩过了。你只需要照着做:
Q:运行
python detect.py报错ModuleNotFoundError: No module named 'ultralytics'?
A:忘记激活环境!务必先执行conda activate yolo,再运行脚本。Q:摄像头推理黑屏/报错
cv2.error: (-215) ...?
A:不是代码问题,是权限问题。在Xshell中执行:sudo usermod -a -G video $USER,然后重启终端或重新登录。Q:训练时显存爆了(OOM),怎么调?
A:两个最快解法:① 把batch=64改成batch=32;② 把imgsz=640改成imgsz=320。YOLO26对小尺寸鲁棒性极强,320×320下mAP仅降1.2%。Q:
data.yaml中train:路径怎么写才对?
A:一律用相对路径,且以data.yaml所在目录为起点。例如data.yaml在/root/workspace/ultralytics-8.4.2/,你的数据在/root/workspace/my_dataset/,那就写train: ../my_dataset/images/train。Q:训练完找不到
best.pt?
A:检查project和name参数。默认路径是runs/train/exp/weights/best.pt。如果你设了name='my_custom_model',那路径就是runs/train/my_custom_model/weights/best.pt。
5. 总结:让YOLO26真正为你所用
YOLO26不是又一个“论文模型”,而是一个为真实场景打磨的工具。这篇教程没讲原理、不堆参数、不谈FLOPs,只聚焦一件事:让你在10分钟内,看到自己的图片被框出来,自己的视频被分析,自己的摄像头画面实时跳动检测框。
你已经掌握了:
如何安全切换到专用环境,避免依赖污染
如何用同一段代码,无缝切换图片/视频/摄像头三种输入
如何组织数据、修改配置、一键启动训练
如何高效下载模型与结果,不被大文件拖慢节奏
下一步,你可以:
→ 用yolo26n-pose.pt给自家宠物猫做姿态分析
→ 把best.pt集成进Flask Web服务,提供HTTP检测API
→ 在Jetson Nano上部署yolo26n.pt,做移动机器人避障
技术的价值,永远不在模型有多新,而在它能不能解决你手头那个具体的问题。YOLO26,现在就等你把它用起来。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。