news 2026/4/20 7:45:16

YOLO-v8.3部署教程:Jupyter与SSH双模式使用详解

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
YOLO-v8.3部署教程:Jupyter与SSH双模式使用详解

YOLO-v8.3部署教程:Jupyter与SSH双模式使用详解

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎。随着版本迭代,YOLOv8在目标检测、实例分割和姿态估计等多个计算机视觉任务中表现出卓越性能,成为工业界和学术界的主流选择之一。

本文基于YOLO-V8 深度学习镜像,详细介绍如何通过Jupyter NotebookSSH 远程连接两种方式高效部署并使用 YOLOv8.3 版本进行模型训练与推理。该镜像已预装 PyTorch 深度学习框架及 Ultralytics 官方ultralytics库,开箱即用,适用于快速开发、实验验证与生产部署。

1. 镜像环境概述

1.1 镜像核心配置

  • 基础框架:PyTorch 2.0+ + CUDA 11.8
  • YOLO 实现库:Ultralyticsultralytics==8.3.0
  • 预置模型支持yolov8n,yolov8s,yolov8m,yolov8l,yolov8x等全系列
  • 数据集支持:COCO、Pascal VOC、自定义数据集格式自动转换
  • 开发工具集成:JupyterLab、VS Code Server、TensorBoard

此镜像为开发者提供了一站式 YOLO 开发环境,无需手动安装依赖或配置 CUDA 驱动,极大降低入门门槛。

1.2 支持的使用模式

使用方式适用场景访问方式
Jupyter Notebook快速原型开发、可视化调试浏览器访问 Web UI
SSH 远程终端批量任务运行、后台训练ssh root@<ip> -p <port>

2. Jupyter 模式使用详解

2.1 启动与访问

启动容器后,系统将自动运行 JupyterLab 服务,默认监听端口为8888。您可通过以下 URL 在浏览器中访问:

http://<your-server-ip>:8888?token=<auto-generated-token>

首次登录界面如下图所示:

成功登录后进入主工作区,目录结构清晰,包含示例代码、预训练权重和数据集模板:

2.2 创建并运行 YOLO 项目

  1. 点击右上角“新建”按钮,选择Python 3 Notebook
  2. 将以下代码粘贴至第一个 cell 中:
from ultralytics import YOLO # 加载 COCO 预训练的小型模型 model = YOLO("yolov8n.pt") # 查看模型结构信息(可选) model.info()
  1. Shift + Enter执行,输出将显示模型参数量、FLOPs 及各层结构摘要。

2.3 数据准备与训练流程

准备数据集配置文件

确保项目根目录下存在coco8.yaml文件,其内容定义了类别名称、训练/验证集路径等元信息。

开始训练
# 开始训练:使用 coco8 数据集,训练 100 轮,输入尺寸 640x640 results = model.train( data="coco8.yaml", epochs=100, imgsz=640, batch=16, name="exp_coco8_v8n" )

训练过程中,Jupyter 会实时输出 loss 曲线、mAP 指标等关键信息,并自动生成 TensorBoard 日志。

推理与结果可视化
# 对本地图片进行推理 results = model("/root/ultralytics/assets/bus.jpg") # 显示带标注框的结果图像 results[0].plot() from IPython.display import Image Image(results[0].path)

该代码将返回带有边界框和标签的检测结果,并可在 notebook 内直接展示。


3. SSH 模式远程开发指南

3.1 SSH 连接配置

当需要执行长时间训练任务或批量处理脚本时,推荐使用 SSH 方式连接服务器。

使用如下命令连接:

ssh root@<server-ip> -p <custom-port>

默认密码由平台生成,请参考控制台提示获取初始凭证。

连接成功后界面如下:

3.2 命令行下的完整工作流

步骤 1:进入项目目录
cd /root/ultralytics

该路径包含官方示例、测试图片和默认配置文件。

步骤 2:加载模型并查看信息
from ultralytics import YOLO # 加载预训练模型 model = YOLO("yolov8n.pt") model.info() # 输出详细模型统计
步骤 3:执行训练任务
# 训练命令 results = model.train( data="coco8.yaml", epochs=100, imgsz=640, device=0, # 使用 GPU 0 workers=4, # 数据加载线程数 project="runs/train", name="exp_yolov8n" )

训练日志将保存在runs/train/exp_yolov8n/目录下,包括:

  • weights/best.pt: 最佳权重
  • results.csv: 每轮指标记录
  • confusion_matrix.png: 分类混淆矩阵
  • val_batch*.jpg: 验证集预测样例图
步骤 4:执行推理任务
# 单张图像推理 results = model("assets/bus.jpg") # 保存结果到 runs/detect/ results[0].save("output_detection.jpg") print("检测完成,结果已保存至 output_detection.jpg")
步骤 5:后台运行训练脚本

创建独立 Python 脚本以实现持久化运行:

cat > train_script.py << EOF from ultralytics import YOLO model = YOLO("yolov8n.pt") model.train(data="coco8.yaml", epochs=100, imgsz=640) EOF

使用nohup后台运行:

nohup python train_script.py > train.log 2>&1 &

可通过tail -f train.log实时监控训练进度。


4. 实际应用 Demo 示例

4.1 快速上手代码整合版

以下是一个完整的端到端示例,涵盖模型加载、训练、推理全流程:

from ultralytics import YOLO # Step 1: 加载预训练模型 model = YOLO("yolov8n.pt") # Step 2: (可选)打印模型信息 model.info() # Step 3: 训练模型 results = model.train( data="coco8.yaml", epochs=100, imgsz=640, batch=16, name="quick_demo" ) # Step 4: 图像推理 results = model("assets/bus.jpg") # Step 5: 保存可视化结果 results[0].save("detections_with_boxes.jpg")

提示:更多使用示例可参考官方文档:https://docs.ultralytics.com/zh/models/yolov8/#yolov8-usage-examples

4.2 自定义数据集适配建议

若需使用自有数据集,请遵循以下步骤:

  1. 组织数据目录结构:

    dataset/ ├── images/ │ ├── train/ │ └── val/ ├── labels/ │ ├── train/ │ └── val/ └── data.yaml
  2. 编写data.yaml文件,指定类别数量与名称:

train: ./dataset/images/train val: ./dataset/images/val nc: 3 names: ['cat', 'dog', 'person']
  1. 修改训练调用中的data参数指向新配置:
model.train(data="./dataset/data.yaml", epochs=100)

5. 总结

本文系统介绍了基于YOLO-V8 深度学习镜像的两种主要使用模式——Jupyter NotebookSSH 远程终端,并结合实际代码演示了从环境初始化到模型训练、推理的完整流程。

  • Jupyter 模式更适合初学者、教学演示和交互式调试,具备良好的可视化能力;
  • SSH 模式则更适合自动化脚本、长期任务调度和服务器级部署,稳定性强且资源利用率高。

无论采用哪种方式,该镜像均提供了开箱即用的 YOLOv8.3 开发环境,显著提升了研发效率。结合 Ultralytics 强大的 API 设计,开发者可以快速实现目标检测、实例分割等多种视觉任务。

对于希望进一步提升性能的用户,建议探索以下方向:

  • 使用更大模型(如yolov8x)提升精度
  • 启用混合精度训练(amp=True)加快速度
  • 结合 TensorRT 实现边缘设备部署

掌握这两种使用模式,将为您在计算机视觉领域的研究与工程落地打下坚实基础。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 21:59:05

零基础理解树莓派5引脚定义:通俗解释物理引脚布局

从零开始看懂树莓派5的40个引脚&#xff1a;一张图、几根线&#xff0c;如何连接整个硬件世界&#xff1f;你有没有过这样的经历&#xff1f;手握一块闪闪发光的树莓派5&#xff0c;插上电源&#xff0c;连上屏幕&#xff0c;Python代码写得飞起——可一旦拿起杜邦线&#xff0…

作者头像 李华
网站建设 2026/4/16 22:58:20

如何让你的键盘操作变得生动有趣?BongoCat桌面宠物终极体验指南

如何让你的键盘操作变得生动有趣&#xff1f;BongoCat桌面宠物终极体验指南 【免费下载链接】BongoCat 让呆萌可爱的 Bongo Cat 陪伴你的键盘敲击与鼠标操作&#xff0c;每一次输入都充满趣味与活力&#xff01; 项目地址: https://gitcode.com/gh_mirrors/bong/BongoCat …

作者头像 李华
网站建设 2026/4/16 23:44:20

NotaGen实战:从风格选择到乐谱输出全流程

NotaGen实战&#xff1a;从风格选择到乐谱输出全流程 1. 引言 1.1 背景与需求 随着人工智能在艺术创作领域的不断深入&#xff0c;AI生成音乐正逐步从实验性探索走向实际应用。传统音乐创作依赖于作曲家的经验与灵感&#xff0c;而基于大语言模型&#xff08;LLM&#xff09…

作者头像 李华
网站建设 2026/4/18 5:16:06

FunASR语音识别实战:多模型协作提升识别准确率

FunASR语音识别实战&#xff1a;多模型协作提升识别准确率 1. 引言 1.1 业务场景描述 在当前智能语音应用快速发展的背景下&#xff0c;语音识别技术已成为人机交互的核心环节。无论是会议记录、视频字幕生成&#xff0c;还是客服系统自动化&#xff0c;高精度的语音转写能力…

作者头像 李华
网站建设 2026/4/17 15:32:34

verl小显存GPU能运行吗?量化压缩部署方案

verl小显存GPU能运行吗&#xff1f;量化压缩部署方案 1. verl 介绍 verl 是一个灵活、高效且可用于生产环境的强化学习&#xff08;RL&#xff09;训练框架&#xff0c;专为大型语言模型&#xff08;LLMs&#xff09;的后训练设计。它由字节跳动火山引擎团队开源&#xff0c;…

作者头像 李华
网站建设 2026/4/17 22:02:41

B站资源下载全攻略:BiliTools跨平台工具箱深度体验

B站资源下载全攻略&#xff1a;BiliTools跨平台工具箱深度体验 【免费下载链接】BiliTools A cross-platform bilibili toolbox. 跨平台哔哩哔哩工具箱&#xff0c;支持视频、音乐、番剧、课程下载……持续更新 项目地址: https://gitcode.com/GitHub_Trending/bilit/BiliToo…

作者头像 李华