news 2026/2/13 8:39:15

X-ReID:多粒度信息交互助力可见光-红外行人重识别突破 | 大模型实战教程

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
X-ReID:多粒度信息交互助力可见光-红外行人重识别突破 | 大模型实战教程

X-ReID是一种创新的跨模态行人重识别框架,通过跨模态原型协作和多粒度信息交互两大机制,有效解决了可见光与红外模态间的鸿沟问题,并精准捕捉视频序列的时空信息。该方法利用CLIP预训练知识缩小模态差异,通过短时序、长时序和跨模态三个维度的信息交互优化特征表示,在主流数据集上实现了当前最优性能,为跨模态视频分析提供了重要参考。


  • 标题:X-ReID: Multi-granularity Information Interaction for Video-Based Visible-Infrared Person Re-Identification
  • 开源代码:https://github.com/AsuradaYuci/X-ReID
  • 论文下载地址:https://arxiv.org/pdf/2511.17964

在计算机视觉领域,跨模态行人重识别(ReID)一直是极具挑战性的研究方向,尤其是基于视频的可见光-红外(Visible-Infrared)行人重识别(VVI-ReID)。这类任务需要在非重叠相机拍摄的不同模态视频序列中,准确检索到同一行人,广泛应用于夜间安防监控、跨场景追踪等实际场景。

现有方法要么难以有效缩小可见光与红外模态间的固有差异(modality gap),要么在捕捉视频序列的时空信息时忽略了模态一致性约束。

近期提出的一种名为X-ReID的新型跨模态特征学习框架,通过创新的跨模态原型协作与多粒度信息交互机制,在两大主流数据集上实现了性能突破。

一、VVI-ReID的核心挑战

在深入X-ReID框架之前,我们需要先明确VVI-ReID任务面临的两大核心痛点:

  1. 模态鸿沟(Modality Gap):可见光与红外视频的成像原理截然不同——可见光依赖环境光照反射,红外则基于物体热辐射,导致同一行人在两种模态下的视觉特征差异极大。传统方法虽尝试通过辅助信息(如人体形状特征、立体图像)搭桥,但需额外标注或预处理,实用性受限。
  2. 时空信息建模(Spatio-Temporal Modeling):视频序列包含丰富的帧间运动信息和空间细节,但部分遮挡、检测不准确等问题会破坏单帧特征的可靠性;同时,现有方法在建模长短期时序依赖时,往往忽略了模态差异的动态变化。

此外,大规模视觉语言模型(如CLIP)在通用检索任务中表现出色,但直接迁移至VVI-ReID面临瓶颈:难以学习模态共享的文本提示(textual prompts),单纯的单模态微调无法缩小模态鸿沟。

二、X-ReID框架核心设计

X-ReID的核心思路是:充分利用CLIP的预训练知识缩小模态鸿沟,同时通过多粒度交互捕捉时空信息,并在整个过程中强化模态一致性约束。框架主要由两大模块构成:跨模态原型协作(Cross-modality Prototype Collaboration, CPC)和多粒度信息交互(Multi-granularity Information Interaction, MII)。

2.1 跨模态原型协作(CPC):让CLIP知识为跨模态服务

CPC的核心目标是解决CLIP在VVI-ReID中面临的"文本缺失"和"模态差异"问题,通过构建跨模态原型(prototype)实现知识迁移与模态对齐。其工作流程分为三步:

(1)原型记忆初始化(Memory Initialization)

不同于传统方法依赖文本提示,CPC直接利用CLIP的视觉编码器提取身份特异性原型(identity-specific prototypes)。对于每个行人身份,我们遍历其所有训练视频(包括可见光和红外模态),通过CLIP视觉编码器提取序列级特征,再对同一身份的特征取平均,得到初始原型:

其中表示第个身份,是该身份对应的视频数量,是单个视频的序列级特征。通过这种方式,我们为每个模态分别构建初始原型记忆库(可见光)和(红外)。

(2)跨模态原型更新(Cross-modality Update)

为了让原型融合两种模态的信息,CPC设计了跨模态更新策略。在训练过程中,对于可见光模态的原型,我们从当前批次的红外模态样本中,选择与该原型相似度最低的"难样本"(hard sample)进行更新:

然后通过动量更新公式迭代优化原型:

其中是动量因子(实验中设为0.2),可以是同模态样本或跨模态难样本。通过这种方式,最终得到融合双模态信息的精炼原型和。

(3)跨模态原型协作损失(CPCL)

为了强制模型学习模态无关特征,CPC设计了协作损失,要求可见光样本不仅对齐自身模态的精炼原型,还需对齐红外模态的精炼原型(反之亦然):

其中表示余弦相似度,是批次中的身份数量。这一损失函数能有效拉近不同模态下同一身份的特征距离,缩小模态鸿沟。

2.2 多粒度信息交互(MII):精准捕捉时空与模态信息

MII模块旨在解决视频序列的时空建模问题,同时通过跨模态交互进一步优化模态对齐。该模块包含三个子组件,分别对应短时序、长时序和跨模态三个维度的信息交互:

(1)短时序信息交互(SII):捕捉相邻帧依赖

SII聚焦于相邻帧的短期动态信息,通过补丁令牌交换(patch token exchange)实现帧间信息互补。对于第帧的补丁令牌,我们将其通道分为三部分,分别与前一帧、后一帧的对应通道拼接,重构出增强后的补丁令牌:

其中是特征通道数。随后,以原始[CLS]令牌为查询(query),重构后的补丁令牌为键(key)和值(value),通过多头交叉注意力(MHCA)和前馈网络(FFN)捕捉短时序依赖:

这种设计能有效缓解单帧遮挡和检测不准确带来的特征噪声。

(2)长时序信息交互(LII):建模长程帧间关联

针对长视频序列的时序依赖建模,LII通过**[CLS]令牌跨帧交换**实现长程信息融合。我们设置时间步长(实验中设为2),将第帧的[CLS]令牌作为查询,第帧的补丁令牌作为键和值,通过注意力机制传递长时序信息:

最后,将SII和LII的输出取平均,得到融合短长时序信息的帧级特征:

(3)跨模态信息交互(CII):强化模态一致性

为了在时空建模过程中进一步缩小模态鸿沟,CII模块直接对可见光和红外模态的特征进行交互优化。首先通过时序平均池化(TAP)得到可见光模态的序列级特征,将其与红外模态的补丁令牌拼接,输入多头自注意力(MHSA)和FFN进行跨模态特征融合:

同时,设计跨模态约束损失(CMCL)最小化融合前后的特征距离,确保模态一致性:

其中是批次中视频总数,是CII融合后的序列级特征。

2.3 整体损失函数

X-ReID的训练过程采用多损失联合优化,包括CPC协作损失、三元组损失()、交叉熵损失()和跨模态约束损失(),整体损失为:

其中三元组损失用于增强特征的判别性,交叉熵损失用于身份分类训练,四者协同确保模型同时具备模态对齐能力、时空建模能力和判别能力。

三、实验验证与性能分析

3.1 实验设置

  • 数据集:采用两大VVI-ReID基准数据集HITSZ-VCM和BUPTCampus,涵盖不同场景下的可见光和红外视频序列。
  • 评价指标:采用累积匹配特性(CMC)和平均精度均值(mAP),包括红外到可见光(I2V)和可见光到红外(V2I)两个检索方向。
  • 实现细节:基于PyTorch框架,使用CLIP的ViT-B/16作为视觉编码器,训练60个epoch,采用Adam优化器,学习率从暖启动至,并在30、50epoch时衰减10倍。

3.2 核心实验结果

X-ReID在两大数据集上均取得了当前最优性能:

  • 在HITSZ-VCM数据集上,I2V方向Rank-1准确率达73.4%,mAP达60.5%;V2I方向Rank-1准确率达76.1%,mAP达59.6%,显著超越CST、HD-GI等现有方法。

  • 在BUPTCampus数据集上,I2V方向Rank-1准确率达68.2%,V2I方向达68.8%,相比DDAG等传统方法提升超过20个百分点。

3.3 超参数敏感性分析

  • 对于SII的时间步长:当(仅相邻帧交互)时性能最优,增大步长会破坏时序一致性,导致性能下降。

  • 对于LII的时间步长:时性能最佳,步长过小无法捕捉长程依赖,步长过大则会引入无关帧的噪声。

四、总结

X-ReID通过创新的跨模态原型协作和多粒度信息交互机制,成功突破了VVI-ReID任务中的模态鸿沟和时空建模两大核心挑战,在主流数据集上实现了性能超越。其核心思想利用预训练模型知识缩小模态差异,同时通过细粒度交互捕捉数据固有结构为跨模态视频分析提供了重要参考。

如何学习AI大模型?

如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!

这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

这是一份大模型从零基础到进阶的学习路线大纲全览,小伙伴们记得点个收藏!


第一阶段:从大模型系统设计入手,讲解大模型的主要方法;

第二阶段:在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段:大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段:大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段:大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段:以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段:以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

100套AI大模型商业化落地方案

大模型全套视频教程

200本大模型PDF书籍

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

LLM面试题合集

大模型产品经理资源合集

大模型项目实战合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/12 10:14:21

MAF快速入门(13)常见智能体编排模式

大家好,我是Edison。 最近我一直在跟着圣杰的《.NETAI智能体开发进阶》课程学习MAF开发多智能体工作流,我强烈推荐你也上车跟我一起出发! 上一篇,我们学习了MAF中如何进行子工作流。本篇,我们来了解下在MAF中如何快速…

作者头像 李华
网站建设 2026/2/7 17:00:13

《AI Flow: Perspectives, Scenarios, and Approaches》论文解读

《AI Flow: Perspectives, Scenarios, and Approaches》论文深度解读 (论文链接:https://arxiv.org/html/2506.12479v1,发布于2025年6月14日,领域:cs.AI) 一、论文基本信息 1. 核心团队与背景 作者单位&…

作者头像 李华
网站建设 2026/2/7 7:35:33

软件测试之单元测试

所谓单元测试指,指的是对软件中最小可测试单元开展细致的检查与验证工作。 具体而言,它主要用于检验单个类的准确性,确保其功能符合预期。 单元测试与集成测试、系统测试存在显著差异。它是软件开发流程中前置的测试环节,规模最…

作者头像 李华
网站建设 2026/2/6 8:44:29

day1-vue

1.vue是一个用于构建用户界面的渐进式框架构建用户界面:基于数据动态渲染页面渐进式:循序渐进框架:一套完整的项目解决方案vue使用方式:1.vue核心包开发——场景: 局部,模块改造 2.vue核心包&vu…

作者头像 李华