news 2026/4/17 19:07:21

基于YOLOv10的安检X光危险物检测系统(YOLOv10深度学习+YOLO数据集+UI界面+Python项目源码+模型)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
基于YOLOv10的安检X光危险物检测系统(YOLOv10深度学习+YOLO数据集+UI界面+Python项目源码+模型)

一、项目介绍

项目背景

在机场、地铁站、火车站等公共场所,安检是保障公共安全的重要环节。传统的安检方式主要依赖人工检查X光图像,这种方式存在以下问题:

  1. 效率低:人工检查速度慢,容易造成排队拥堵。

  2. 漏检率高:安检人员可能因疲劳或疏忽导致危险物品漏检。

  3. 主观性强:不同安检人员的判断标准可能存在差异。

随着深度学习技术的发展,基于计算机视觉的目标检测算法(如YOLO系列)在图像识别领域取得了显著进展。YOLOv10作为YOLO系列的最新版本,具有更高的检测速度和精度,非常适合应用于实时安检场景。本项目旨在利用YOLOv10算法,结合安检X光图像数据,开发一套高效、准确的危险物品检测系统,为安检工作提供智能化支持。

技术方案

  1. 模型选择:采用YOLOv10作为核心检测算法,因其在速度和精度上的优异表现,非常适合实时安检场景。

  2. 数据增强:对训练集进行数据增强(如旋转、缩放、翻转等),以提高模型的鲁棒性。

  3. 模型训练:使用训练集对YOLOv10模型进行训练,优化损失函数,提升检测精度。

  4. 模型评估:使用验证集评估模型的性能,计算mAP(平均精度均值)等指标,确保模型达到预期效果。

  5. 部署应用:将训练好的模型部署到安检设备中,实现实时危险物品检测。

项目意义

  1. 提升安检效率:通过自动化检测,减少人工干预,大幅提高安检速度,缓解排队压力。

  2. 提高检测准确性:利用深度学习算法,降低漏检率和误检率,提升安检的可靠性。

  3. 保障公共安全:及时发现并拦截危险物品,有效预防安全事故的发生。

  4. 推动智能化安检:为安检行业提供智能化解决方案,推动安检技术的升级与创新。

目录

一、项目介绍

项目背景

技术方案

项目意义

二、项目功能展示

系统功能

图片检测

视频检测

摄像头实时检测

三、数据集介绍

数据集使用

数据集配置文件data.yaml

数据集制作流程

四、项目环境配置

创建虚拟环境

pycharm中配置anaconda

安装所需要库

五、模型训练

训练代码

训练结果

六、核心代码

七、项目


基于深度学习的安检X光危险物检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)_哔哩哔哩_bilibili

基于深度学习的安检X光危险物检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)

二、项目功能展示

系统功能

图片检测:可对单张图片进行检测,返回检测框及类别信息。
批量图片检测:支持文件夹输入,一次性检测多张图片,生成批量检测结果。
视频检测:支持视频文件输入,检测视频中每一帧的情况。
摄像头实时检测:连接USB 摄像头,实现实时监测,

  • 图片检测

该功能允许用户通过单张图片进行目标检测。输入一张图片后,YOLO模型会实时分析图像,识别出其中的目标,并在图像中框出检测到的目标,输出带有目标框的图像。批量图片检测

用户可以一次性上传多个图片进行批量处理。该功能支持对多个图像文件进行并行处理,并返回每张图像的目标检测结果,适用于需要大规模处理图像数据的应用场景。

  • 视频检测

视频检测功能允许用户将视频文件作为输入。YOLO模型将逐帧分析视频,并在每一帧中标记出检测到的目标。最终结果可以是带有目标框的视频文件或实时展示,适用于视频监控和分析等场景。

  • 摄像头实时检测

该功能支持通过连接摄像头进行实时目标检测。YOLO模型能够在摄像头拍摄的实时视频流中进行目标检测,实时识别并显示检测结果。此功能非常适用于安防监控、无人驾驶、智能交通等应用,提供即时反馈。

核心特点:

  • 高精度:基于YOLO模型,提供精确的目标检测能力,适用于不同类型的图像和视频。
  • 实时性:特别优化的算法使得实时目标检测成为可能,无论是在视频还是摄像头实时检测中,响应速度都非常快。
  • 批量处理:支持高效的批量图像和视频处理,适合大规模数据分析。

三、数据集介绍

数据集名称:安检X光危险物检测数据集
类别数量(nc):18类
类别名称

  1. Axe(斧头)

  2. Chisel(凿子)

  3. Firecracker(鞭炮)

  4. Gun(枪支)

  5. HDD(硬盘)

  6. Hammer(锤子)

  7. HandCuffs(手铐)

  8. Knife(刀具)

  9. Lighter(打火机)

  10. Plier(钳子)

  11. Saw(锯子)

  12. Scissors(剪刀)

  13. Screwdriver(螺丝刀)

  14. SmartPhone(智能手机)

  15. Spanner(扳手)

  16. SupplymentaryBattery(充电宝)

  17. Throwing Knife(飞刀)

  18. USB(U盘)

数据集规模

  • 训练集:4385张X光图像

  • 验证集:1880张X光图像

数据集特点

  1. 多样性:数据集中包含了多种不同形状、大小、材质的危险物品和日常用品,涵盖了安检中常见的违禁品。

  2. 复杂性:X光图像中的物品可能存在重叠、遮挡、旋转等情况,增加了检测的难度。

  3. 标注质量:每张图像都经过精确的标注,标注信息包括物品的类别和边界框(Bounding Box),确保模型训练的准确性。

  4. 场景真实性:数据集中的图像均来自真实的安检场景,能够很好地反映实际应用中的挑战。


数据集使用

  • 训练集:用于训练YOLOv10模型,通过大量的X光图像数据,使模型能够学习到不同危险物品的特征。

  • 验证集:用于评估模型的性能,验证模型在未见过的数据上的泛化能力,确保模型在实际应用中的可靠性。

数据集配置文件data.yaml

train: ../train/images val: ../valid/images test: ../test/images nc: 18 names: ['Axe', 'Chisel', 'Firecracker', 'Gun', 'HDD', 'Hammer', 'HandCuffs', 'Knife', 'Lighter', 'Plier', 'Saw', 'Scissors', 'Screwdriver', 'SmartPhone', 'Spanner', 'SupplymentaryBattery', 'Throwing Knife', 'USB']

数据集制作流程

  • 标注数据:使用标注工具(如LabelImg、CVAT等)对图像中的目标进行标注。每个目标需要标出边界框,并且标注类别。

  • 转换格式:将标注的数据转换为YOLO格式。YOLO标注格式为每行:<object-class> <x_center> <y_center> <width> <height>,这些坐标是相对于图像尺寸的比例。

  • 分割数据集:将数据集分为训练集、验证集和测试集,通常的比例是80%训练集、10%验证集和10%测试集。

  • 准备标签文件:为每张图片生成一个对应的标签文件,确保标签文件与图片的命名一致。

  • 调整图像尺寸:根据YOLO网络要求,统一调整所有图像的尺寸(如416x416或608x608)。

四、项目环境配置

创建虚拟环境

首先新建一个Anaconda环境,每个项目用不同的环境,这样项目中所用的依赖包互不干扰。

终端输入

conda create -n yolov10 python==3.9

激活虚拟环境

conda activate yolov10

安装cpu版本pytorch

pip install torch torchvision torchaudio

pycharm中配置anaconda

安装所需要库

pip install -r requirements.txt

五、模型训练

训练代码

from ultralytics import YOLOv10 model_path = 'yolov10s.pt' data_path = 'datasets/data.yaml' if __name__ == '__main__': model = YOLOv10(model_path) results = model.train(data=data_path, epochs=500, batch=64, device='0', workers=0, project='runs/detect', name='exp', )
根据实际情况更换模型 yolov10n.yaml (nano):轻量化模型,适合嵌入式设备,速度快但精度略低。 yolov10s.yaml (small):小模型,适合实时任务。 yolov10m.yaml (medium):中等大小模型,兼顾速度和精度。 yolov10b.yaml (base):基本版模型,适合大部分应用场景。 yolov10l.yaml (large):大型模型,适合对精度要求高的任务。
  • --batch 64:每批次64张图像。
  • --epochs 500:训练500轮。
  • --datasets/data.yaml:数据集配置文件。
  • --weights yolov10s.pt:初始化模型权重,yolov10s.pt是预训练的轻量级YOLO模型。

训练结果

六、核心代码

# -*- coding: utf-8 -*- import time from PyQt5.QtWidgets import QApplication , QMainWindow, QFileDialog,QMessageBox,QWidget,QHeaderView,QTableWidgetItem, QAbstractItemView import sys import os from PIL import ImageFont from ultralytics import YOLOv10 sys.path.append('UIProgram') from UIProgram.UiMain import Ui_MainWindow import sys from PyQt5.QtCore import QTimer, Qt, QThread, pyqtSignal,QCoreApplication import detect_tools as tools import cv2 import Config from UIProgram.QssLoader import QSSLoader from UIProgram.precess_bar import ProgressBar import numpy as np # import torch class MainWindow(QMainWindow): def __init__(self, parent=None): super(QMainWindow, self).__init__(parent) self.ui = Ui_MainWindow() self.ui.setupUi(self) self.initMain() self.signalconnect() # 加载css渲染效果 style_file = 'UIProgram/style.css' qssStyleSheet = QSSLoader.read_qss_file(style_file) self.setStyleSheet(qssStyleSheet) def signalconnect(self): self.ui.PicBtn.clicked.connect(self.open_img) self.ui.comboBox.activated.connect(self.combox_change) self.ui.VideoBtn.clicked.connect(self.vedio_show) self.ui.CapBtn.clicked.connect(self.camera_show) self.ui.SaveBtn.clicked.connect(self.save_detect_video) self.ui.ExitBtn.clicked.connect(QCoreApplication.quit) self.ui.FilesBtn.clicked.connect(self.detact_batch_imgs) def initMain(self): self.show_width = 700 self.show_height = 500 self.org_path = None self.is_camera_open = False self.cap = None # self.device = 0 if torch.cuda.is_available() else 'cpu' # 加载检测模型 self.model = YOLOv10('runs/detect/exp/weights/best.pt', task='detect') self.model(np.zeros((48, 48, 3))) #预先加载推理模型 self.fontC = ImageFont.truetype("Font/platech.ttf", 25, 0) self.colors = tools.Colors() self.timer_camera = QTimer() # 更新检测信息表格 # self.timer_info = QTimer() # 保存视频 self.timer_save_video = QTimer() # 表格 self.ui.tableWidget.verticalHeader().setSectionResizeMode(QHeaderView.Fixed) self.ui.tableWidget.verticalHeader().setDefaultSectionSize(40) self.ui.tableWidget.setColumnWidth(0, 80) # 设置列宽 self.ui.tableWidget.setColumnWidth(1, 200) self.ui.tableWidget.setColumnWidth(2, 150) self.ui.tableWidget.setColumnWidth(3, 90) self.ui.tableWidget.setColumnWidth(4, 230) self.ui.tableWidget.setSelectionBehavior(QAbstractItemView.SelectRows) # 设置表格整行选中 self.ui.tableWidget.verticalHeader().setVisible(False) # 隐藏列标题 self.ui.tableWidget.setAlternatingRowColors(True) # 表格背景交替 def open_img(self): if self.cap: # 打开图片前关闭摄像头 self.video_stop() self.is_camera_open = False self.ui.CaplineEdit.setText('摄像头未开启') self.cap = None file_path, _ = QFileDialog.getOpenFileName(None, '打开图片', './', "Image files (*.jpg *.jepg *.png)") if not file_path: return self.ui.comboBox.setDisabled(False) self.org_path = file_path self.org_img = tools.img_cvread(self.org_path) # 目标检测 t1 = time.time() self.results = self.model(self.org_path)[0] t2 = time.time() take_time_str = '{:.3f} s'.format(t2 - t1) self.ui.time_lb.setText(take_time_str) location_list = self.results.boxes.xyxy.tolist() self.location_list = [list(map(int, e)) for e in location_list] cls_list = self.results.boxes.cls.tolist() self.cls_list = [int(i) for i in cls_list] self.conf_list = self.results.boxes.conf.tolist() self.conf_list = ['%.2f %%' % (each*100) for each in self.conf_list] total_nums = len(location_list) cls_percents = [] for i in range(1): if total_nums ==0: res =0 else: res = self.cls_list.count(i) / total_nums cls_percents.append(res) self.set_percent(cls_percents) now_img = self.results.plot() self.draw_img = now_img # 获取缩放后的图片尺寸 self.img_width, self.img_height = self.get_resize_size(now_img) resize_cvimg = cv2.resize(now_img,(self.img_width, self.img_height)) pix_img = tools.cvimg_to_qpiximg(resize_cvimg) self.ui.label_show.setPixmap(pix_img) self.ui.label_show.setAlignment(Qt.AlignCenter) # 设置路径显示 self.ui.PiclineEdit.setText(self.org_path) # 目标数目 target_nums = len(self.cls_list) self.ui.label_nums.setText(str(target_nums)) # 设置目标选择下拉框 choose_list = ['全部'] target_names = [Config.names[id]+ '_'+ str(index) for index,id in enumerate(self.cls_list)] choose_list = choose_list + target_names self.ui.comboBox.clear() self.ui.comboBox.addItems(choose_list) if target_nums >= 1: self.ui.type_lb.setText(Config.CH_names[self.cls_list[0]]) self.ui.label_conf.setText(str(self.conf_list[0])) self.ui.label_xmin.setText(str(self.location_list[0][0])) self.ui.label_ymin.setText(str(self.location_list[0][1])) self.ui.label_xmax.setText(str(self.location_list[0][2])) self.ui.label_ymax.setText(str(self.location_list[0][3])) else: self.ui.type_lb.setText('') self.ui.label_conf.setText('') self.ui.label_xmin.setText('') self.ui.label_ymin.setText('') self.ui.label_xmax.setText('') self.ui.label_ymax.setText('') # # 删除表格所有行 self.ui.tableWidget.setRowCount(0) self.ui.tableWidget.clearContents() self.tabel_info_show(self.location_list, self.cls_list, self.conf_list,path=self.org_path) def detact_batch_imgs(self): if self.cap: # 打开图片前关闭摄像头 self.video_stop() self.is_camera_open = False self.ui.CaplineEdit.setText('摄像头未开启') self.cap = None directory = QFileDialog.getExistingDirectory(self, "选取文件夹", "./") # 起始路径 if not directory: return self.org_path = directory img_suffix = ['jpg','png','jpeg','bmp'] for file_name in os.listdir(directory): full_path = os.path.join(directory,file_name) if os.path.isfile(full_path) and file_name.split('.')[-1].lower() in img_suffix: # self.ui.comboBox.setDisabled(False) img_path = full_path self.org_img = tools.img_cvread(img_path) # 目标检测 t1 = time.time() self.results = self.model(img_path)[0] t2 = time.time() take_time_str = '{:.3f} s'.format(t2 - t1) self.ui.time_lb.setText(take_time_str) location_list = self.results.boxes.xyxy.tolist() self.location_list = [list(map(int, e)) for e in location_list] cls_list = self.results.boxes.cls.tolist() self.cls_list = [int(i) for i in cls_list] self.conf_list = self.results.boxes.conf.tolist() self.conf_list = ['%.2f %%' % (each * 100) for each in self.conf_list] total_nums = len(location_list) cls_percents = [] for i in range(1): if total_nums == 0: res = 0 else: res = self.cls_list.count(i) / total_nums cls_percents.append(res) self.set_percent(cls_percents) now_img = self.results.plot() self.draw_img = now_img # 获取缩放后的图片尺寸 self.img_width, self.img_height = self.get_resize_size(now_img) resize_cvimg = cv2.resize(now_img, (self.img_width, self.img_height)) pix_img = tools.cvimg_to_qpiximg(resize_cvimg) self.ui.label_show.setPixmap(pix_img) self.ui.label_show.setAlignment(Qt.AlignCenter) # 设置路径显示 self.ui.PiclineEdit.setText(img_path) # 目标数目 target_nums = len(self.cls_list) self.ui.label_nums.setText(str(target_nums)) # 设置目标选择下拉框 choose_list = ['全部'] target_names = [Config.names[id] + '_' + str(index) for index, id in enumerate(self.cls_list)] choose_list = choose_list + target_names self.ui.comboBox.clear() self.ui.comboBox.addItems(choose_list) if target_nums >= 1: self.ui.type_lb.setText(Config.CH_names[self.cls_list[0]]) self.ui.label_conf.setText(str(self.conf_list[0])) self.ui.label_xmin.setText(str(self.location_list[0][0])) self.ui.label_ymin.setText(str(self.location_list[0][1])) self.ui.label_xmax.setText(str(self.location_list[0][2])) self.ui.label_ymax.setText(str(self.location_list[0][3])) else: self.ui.type_lb.setText('') self.ui.label_conf.setText('') self.ui.label_xmin.setText('') self.ui.label_ymin.setText('') self.ui.label_xmax.setText('') self.ui.label_ymax.setText('') # # 删除表格所有行 self.tabel_info_show(self.location_list, self.cls_list, self.conf_list, path=img_path) self.ui.tableWidget.scrollToBottom() QApplication.processEvents() #刷新页面 def draw_rect_and_tabel(self, results, img): now_img = img.copy() location_list = results.boxes.xyxy.tolist() self.location_list = [list(map(int, e)) for e in location_list] cls_list = results.boxes.cls.tolist() self.cls_list = [int(i) for i in cls_list] self.conf_list = results.boxes.conf.tolist() self.conf_list = ['%.2f %%' % (each * 100) for each in self.conf_list] for loacation, type_id, conf in zip(self.location_list, self.cls_list, self.conf_list): type_id = int(type_id) color = self.colors(int(type_id), True) # cv2.rectangle(now_img, (int(x1), int(y1)), (int(x2), int(y2)), colors(int(type_id), True), 3) now_img = tools.drawRectBox(now_img, loacation, Config.CH_names[type_id], self.fontC, color) # 获取缩放后的图片尺寸 self.img_width, self.img_height = self.get_resize_size(now_img) resize_cvimg = cv2.resize(now_img, (self.img_width, self.img_height)) pix_img = tools.cvimg_to_qpiximg(resize_cvimg) self.ui.label_show.setPixmap(pix_img) self.ui.label_show.setAlignment(Qt.AlignCenter) # 设置路径显示 self.ui.PiclineEdit.setText(self.org_path) # 目标数目 target_nums = len(self.cls_list) self.ui.label_nums.setText(str(target_nums)) if target_nums >= 1: self.ui.type_lb.setText(Config.CH_names[self.cls_list[0]]) self.ui.label_conf.setText(str(self.conf_list[0])) self.ui.label_xmin.setText(str(self.location_list[0][0])) self.ui.label_ymin.setText(str(self.location_list[0][1])) self.ui.label_xmax.setText(str(self.location_list[0][2])) self.ui.label_ymax.setText(str(self.location_list[0][3])) else: self.ui.type_lb.setText('') self.ui.label_conf.setText('') self.ui.label_xmin.setText('') self.ui.label_ymin.setText('') self.ui.label_xmax.setText('') self.ui.label_ymax.setText('') # 删除表格所有行 self.ui.tableWidget.setRowCount(0) self.ui.tableWidget.clearContents() self.tabel_info_show(self.location_list, self.cls_list, self.conf_list, path=self.org_path) return now_img def combox_change(self): com_text = self.ui.comboBox.currentText() if com_text == '全部': cur_box = self.location_list cur_img = self.results.plot() self.ui.type_lb.setText(Config.CH_names[self.cls_list[0]]) self.ui.label_conf.setText(str(self.conf_list[0])) else: index = int(com_text.split('_')[-1]) cur_box = [self.location_list[index]] cur_img = self.results[index].plot() self.ui.type_lb.setText(Config.CH_names[self.cls_list[index]]) self.ui.label_conf.setText(str(self.conf_list[index])) # 设置坐标位置值 self.ui.label_xmin.setText(str(cur_box[0][0])) self.ui.label_ymin.setText(str(cur_box[0][1])) self.ui.label_xmax.setText(str(cur_box[0][2])) self.ui.label_ymax.setText(str(cur_box[0][3])) resize_cvimg = cv2.resize(cur_img, (self.img_width, self.img_height)) pix_img = tools.cvimg_to_qpiximg(resize_cvimg) self.ui.label_show.clear() self.ui.label_show.setPixmap(pix_img) self.ui.label_show.setAlignment(Qt.AlignCenter) def get_video_path(self): file_path, _ = QFileDialog.getOpenFileName(None, '打开视频', './', "Image files (*.avi *.mp4 *.jepg *.png)") if not file_path: return None self.org_path = file_path self.ui.VideolineEdit.setText(file_path) return file_path def video_start(self): # 删除表格所有行 self.ui.tableWidget.setRowCount(0) self.ui.tableWidget.clearContents() # 清空下拉框 self.ui.comboBox.clear() # 定时器开启,每隔一段时间,读取一帧 self.timer_camera.start(1) self.timer_camera.timeout.connect(self.open_frame) def tabel_info_show(self, locations, clses, confs, path=None): path = path for location, cls, conf in zip(locations, clses, confs): row_count = self.ui.tableWidget.rowCount() # 返回当前行数(尾部) self.ui.tableWidget.insertRow(row_count) # 尾部插入一行 item_id = QTableWidgetItem(str(row_count+1)) # 序号 item_id.setTextAlignment(Qt.AlignHCenter | Qt.AlignVCenter) # 设置文本居中 item_path = QTableWidgetItem(str(path)) # 路径 # item_path.setTextAlignment(Qt.AlignHCenter | Qt.AlignVCenter) item_cls = QTableWidgetItem(str(Config.CH_names[cls])) item_cls.setTextAlignment(Qt.AlignHCenter | Qt.AlignVCenter) # 设置文本居中 item_conf = QTableWidgetItem(str(conf)) item_conf.setTextAlignment(Qt.AlignHCenter | Qt.AlignVCenter) # 设置文本居中 item_location = QTableWidgetItem(str(location)) # 目标框位置 # item_location.setTextAlignment(Qt.AlignHCenter | Qt.AlignVCenter) # 设置文本居中 self.ui.tableWidget.setItem(row_count, 0, item_id) self.ui.tableWidget.setItem(row_count, 1, item_path) self.ui.tableWidget.setItem(row_count, 2, item_cls) self.ui.tableWidget.setItem(row_count, 3, item_conf) self.ui.tableWidget.setItem(row_count, 4, item_location) self.ui.tableWidget.scrollToBottom() def video_stop(self): self.cap.release() self.timer_camera.stop() # self.timer_info.stop() def open_frame(self): ret, now_img = self.cap.read() if ret: # 目标检测 t1 = time.time() results = self.model(now_img)[0] t2 = time.time() take_time_str = '{:.3f} s'.format(t2 - t1) self.ui.time_lb.setText(take_time_str) location_list = results.boxes.xyxy.tolist() self.location_list = [list(map(int, e)) for e in location_list] cls_list = results.boxes.cls.tolist() self.cls_list = [int(i) for i in cls_list] self.conf_list = results.boxes.conf.tolist() self.conf_list = ['%.2f %%' % (each * 100) for each in self.conf_list] total_nums = len(location_list) cls_percents = [] for i in range(1): if total_nums!= 0 : res = self.cls_list.count(i) / total_nums else : res=0 cls_percents.append(res) self.set_percent(cls_percents) now_img = results.plot() # 获取缩放后的图片尺寸 self.img_width, self.img_height = self.get_resize_size(now_img) resize_cvimg = cv2.resize(now_img, (self.img_width, self.img_height)) pix_img = tools.cvimg_to_qpiximg(resize_cvimg) self.ui.label_show.setPixmap(pix_img) self.ui.label_show.setAlignment(Qt.AlignCenter) # 目标数目 target_nums = len(self.cls_list) self.ui.label_nums.setText(str(target_nums)) # 设置目标选择下拉框 choose_list = ['全部'] target_names = [Config.names[id] + '_' + str(index) for index, id in enumerate(self.cls_list)] choose_list = choose_list + target_names self.ui.comboBox.clear() self.ui.comboBox.addItems(choose_list) if target_nums >= 1: self.ui.type_lb.setText(Config.CH_names[self.cls_list[0]]) self.ui.label_conf.setText(str(self.conf_list[0])) self.ui.label_xmin.setText(str(self.location_list[0][0])) self.ui.label_ymin.setText(str(self.location_list[0][1])) self.ui.label_xmax.setText(str(self.location_list[0][2])) self.ui.label_ymax.setText(str(self.location_list[0][3])) else: self.ui.type_lb.setText('') self.ui.label_conf.setText('') self.ui.label_xmin.setText('') self.ui.label_ymin.setText('') self.ui.label_xmax.setText('') self.ui.label_ymax.setText('') self.tabel_info_show(self.location_list, self.cls_list, self.conf_list, path=self.org_path) else: self.cap.release() self.timer_camera.stop() def vedio_show(self): if self.is_camera_open: self.is_camera_open = False self.ui.CaplineEdit.setText('摄像头未开启') video_path = self.get_video_path() if not video_path: return None self.cap = cv2.VideoCapture(video_path) self.video_start() self.ui.comboBox.setDisabled(True) def camera_show(self): self.is_camera_open = not self.is_camera_open if self.is_camera_open: self.ui.CaplineEdit.setText('摄像头开启') self.cap = cv2.VideoCapture(0) self.video_start() self.ui.comboBox.setDisabled(True) else: self.ui.CaplineEdit.setText('摄像头未开启') self.ui.label_show.setText('') if self.cap: self.cap.release() cv2.destroyAllWindows() self.ui.label_show.clear() def get_resize_size(self, img): _img = img.copy() img_height, img_width , depth= _img.shape ratio = img_width / img_height if ratio >= self.show_width / self.show_height: self.img_width = self.show_width self.img_height = int(self.img_width / ratio) else: self.img_height = self.show_height self.img_width = int(self.img_height * ratio) return self.img_width, self.img_height def save_detect_video(self): if self.cap is None and not self.org_path: QMessageBox.about(self, '提示', '当前没有可保存信息,请先打开图片或视频!') return if self.is_camera_open: QMessageBox.about(self, '提示', '摄像头视频无法保存!') return if self.cap: res = QMessageBox.information(self, '提示', '保存视频检测结果可能需要较长时间,请确认是否继续保存?',QMessageBox.Yes | QMessageBox.No , QMessageBox.Yes) if res == QMessageBox.Yes: self.video_stop() com_text = self.ui.comboBox.currentText() self.btn2Thread_object = btn2Thread(self.org_path, self.model, com_text) self.btn2Thread_object.start() self.btn2Thread_object.update_ui_signal.connect(self.update_process_bar) else: return else: if os.path.isfile(self.org_path): fileName = os.path.basename(self.org_path) name , end_name= fileName.rsplit(".",1) save_name = name + '_detect_result.' + end_name save_img_path = os.path.join(Config.save_path, save_name) # 保存图片 cv2.imwrite(save_img_path, self.draw_img) QMessageBox.about(self, '提示', '图片保存成功!\n文件路径:{}'.format(save_img_path)) else: img_suffix = ['jpg', 'png', 'jpeg', 'bmp'] for file_name in os.listdir(self.org_path): full_path = os.path.join(self.org_path, file_name) if os.path.isfile(full_path) and file_name.split('.')[-1].lower() in img_suffix: name, end_name = file_name.rsplit(".",1) save_name = name + '_detect_result.' + end_name save_img_path = os.path.join(Config.save_path, save_name) results = self.model(full_path)[0] now_img = results.plot() # 保存图片 cv2.imwrite(save_img_path, now_img) QMessageBox.about(self, '提示', '图片保存成功!\n文件路径:{}'.format(Config.save_path)) def update_process_bar(self,cur_num, total): if cur_num == 1: self.progress_bar = ProgressBar(self) self.progress_bar.show() if cur_num >= total: self.progress_bar.close() QMessageBox.about(self, '提示', '视频保存成功!\n文件在{}目录下'.format(Config.save_path)) return if self.progress_bar.isVisible() is False: # 点击取消保存时,终止进程 self.btn2Thread_object.stop() return value = int(cur_num / total *100) self.progress_bar.setValue(cur_num, total, value) QApplication.processEvents() def set_percent(self, probs): pass class btn2Thread(QThread): update_ui_signal = pyqtSignal(int,int) def __init__(self, path, model, com_text): super(btn2Thread, self).__init__() self.org_path = path self.model = model self.com_text = com_text # 用于绘制不同颜色矩形框 self.colors = tools.Colors() self.is_running = True # 标志位,表示线程是否正在运行 def run(self): # VideoCapture方法是cv2库提供的读取视频方法 cap = cv2.VideoCapture(self.org_path) # 设置需要保存视频的格式“xvid” # 该参数是MPEG-4编码类型,文件名后缀为.avi fourcc = cv2.VideoWriter_fourcc(*'XVID') # 设置视频帧频 fps = cap.get(cv2.CAP_PROP_FPS) # 设置视频大小 size = (int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)), int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))) # VideoWriter方法是cv2库提供的保存视频方法 # 按照设置的格式来out输出 fileName = os.path.basename(self.org_path) name, end_name = fileName.split('.') save_name = name + '_detect_result.avi' save_video_path = os.path.join(Config.save_path, save_name) out = cv2.VideoWriter(save_video_path, fourcc, fps, size) prop = cv2.CAP_PROP_FRAME_COUNT total = int(cap.get(prop)) print("[INFO] 视频总帧数:{}".format(total)) cur_num = 0 # 确定视频打开并循环读取 while (cap.isOpened() and self.is_running): cur_num += 1 print('当前第{}帧,总帧数{}'.format(cur_num, total)) ret, frame = cap.read() if ret == True: # 检测 results = self.model(frame)[0] frame = results.plot() out.write(frame) self.update_ui_signal.emit(cur_num, total) else: break # 释放资源 cap.release() out.release() def stop(self): self.is_running = False if __name__ == "__main__": app = QApplication(sys.argv) win = MainWindow() win.show() sys.exit(app.exec_())

七、项目

演示与介绍视频:

基于深度学习的安检X光危险物检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)_哔哩哔哩_bilibili

基于深度学习的安检X光危险物检测系统(YOLOv10+YOLO数据集+UI界面+Python项目源码+模型)

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 18:34:46

Open-AutoGLM引爆产业变革(打破技术垄断的5大关键突破)

第一章&#xff1a;Open-AutoGLM引爆产业变革的背景与意义人工智能正以前所未有的速度重塑全球产业格局&#xff0c;而大语言模型&#xff08;LLM&#xff09;作为核心技术引擎&#xff0c;正在推动智能应用从“辅助工具”向“自主决策体”跃迁。在这一背景下&#xff0c;Open-…

作者头像 李华
网站建设 2026/4/17 8:21:05

Open-AutoGLM计算资源优化全攻略(动态分配架构设计与性能实测)

第一章&#xff1a;Open-AutoGLM计算资源动态分配概述在大规模语言模型训练与推理场景中&#xff0c;Open-AutoGLM 通过智能化的资源调度机制实现计算资源的动态分配&#xff0c;显著提升集群利用率与任务响应效率。该系统基于实时负载监测与预测算法&#xff0c;自动调整 GPU、…

作者头像 李华
网站建设 2026/4/16 8:55:34

大模型应用开发教程:14周从小白到大厂offer,一篇文章搞定

2025年伊始&#xff0c;AI技术浪潮汹涌&#xff0c;正在深刻重塑程序员的职业轨迹&#xff1a; 阿里云宣布核心业务全线接入Agent架构&#xff1b; 字节跳动后端岗位中&#xff0c;30%明确要求具备大模型开发能力&#xff1b; 腾讯、京东、百度等技术岗位开放招聘&#xff0c;约…

作者头像 李华
网站建设 2026/4/16 18:20:57

Linly-Talker如何处理方言输入?识别准确率测试

Linly-Talker如何处理方言输入&#xff1f;识别准确率测试 在智能客服、虚拟主播和远程教育日益普及的今天&#xff0c;数字人系统正从技术演示走向真实场景落地。然而一个现实难题始终存在&#xff1a;用户说话带口音怎么办&#xff1f;尤其是中文环境下&#xff0c;粤语、四川…

作者头像 李华
网站建设 2026/4/12 16:13:58

【AI训练效率革命】:基于Open-AutoGLM的实时资源调配7大最佳实践

第一章&#xff1a;Open-AutoGLM资源动态分配的核心价值Open-AutoGLM作为新一代自动化大语言模型调度框架&#xff0c;其核心优势在于实现了计算资源的智能动态分配。通过实时监控任务负载、模型推理延迟与硬件利用率&#xff0c;系统能够在多租户、高并发场景下自动调整GPU内存…

作者头像 李华
网站建设 2026/4/17 0:59:26

视觉Transformer性能瓶颈如何破?(Open-AutoGLM注意力优化全解析)

第一章&#xff1a;视觉Transformer性能瓶颈如何破&#xff1f;(Open-AutoGLM注意力优化全解析)视觉Transformer&#xff08;ViT&#xff09;在图像识别任务中展现出强大潜力&#xff0c;但其自注意力机制带来的计算复杂度随序列长度平方增长&#xff0c;成为部署中的主要性能瓶…

作者头像 李华