一、开篇:当小目标成为“看不见的敌人”
在无人机航拍、卫星遥感、工业质检、安防监控等场景中,你是否常遇到这种情况:模型整体mAP看着挺漂亮,可一到实际业务中,那些芝麻大的目标——远处的行人、散落的零件缺陷、遥感影像中的车辆——要么漏检、要么置信度低到无法触发告警?
这不是模型“不行”,而是小目标在数据流中天生处于劣势。传统目标检测模型(包括YOLO系列)在逐层下采样过程中,微小目标往往只有几个像素甚至被完全压缩消失。根据Ultralytics社区的核心成员在2025年9月的讨论中明确指出:SAHI的主要适用场景是当检测目标相对于图像尺寸极其微小的时候——若目标尺寸在图像中占比不足约3%,传统单图推理基本宣告失效。
更棘手的是,即便你用上了最新的YOLO11,模型本身精度再高,面对4000×3000甚至8000×8000像素的大图,直接把图塞进640×640的推理窗口,那些原本就小的目标在压缩后几乎化为乌有。
那么问题来了:能不能不改模型结构、不重新训练,就能让大分辨率下的小目标检测精度大幅提升?
答案就是本文的主角:SAHI(Slicing Aided Hyper Inference,切片辅助超推理)框架。截至2025年12月,SAHI已发布0.11.22版本,正式全面兼容Ultralytics YOLO11/YOLO12等最新检测器。它让你在不改一行模型代码、不重新训练的前提下,仅通过在推理阶段对图像进行“切片-分别推理-结果融合”,就让那些原本被“压缩到看不见”的小目标无处遁形。
本文