导语
【免费下载链接】LongCat-Flash-Thinking项目地址: https://ai.gitcode.com/hf_mirrors/meituan-longcat/LongCat-Flash-Thinking
美团正式发布5600亿参数开源大语言模型LongCat-Flash-Thinking,通过创新混合专家架构实现动态计算分配,平均仅激活270亿参数即可达到行业领先性能,重新定义大模型效率标准。
行业现状:大模型的"规模困境"
当前AI行业正面临参数规模与实用效率的尖锐矛盾。主流千亿级模型虽在复杂任务中表现出色,但推理成本居高不下——据美团技术团队测算,传统稠密模型在智能客服场景的单轮交互成本约为LongCat-Flash-Thinking的3.2倍。2025年,大模型落地进入"推理时间",模型在多模态深度推理、自适应推理、边缘推理加速等方面持续突破,任务复杂度推动推理框架持续进化。
如上图所示,美团LongCat-Flash-Thinking的发布海报突出了"更快、更强、更专业"三大核心优势。这一设计不仅体现了模型的技术定位,也暗示了美团在大模型领域追求效率与性能平衡的技术理念。
核心亮点:创新架构解决效率难题
动态计算的混合专家架构
LongCat-Flash-Thinking采用创新性混合专家模型(Mixture-of-Experts, MoE)架构,总参数5600亿,激活参数18.6B~31.3B(平均27B),实现了计算效率与性能的双重优化。这种"大参数、小激活"的设计让模型可在不显著增加成本的情况下扩充容量,单卡GPU即可部署千亿级模型推理能力。
领域并行强化学习训练
为解决强化学习领域混合训练的稳定性问题,美团设计了一种领域并行方案,将STEM、代码和智能体任务的优化过程解耦。这一方法采用了多领域并行训练再融合的先进策略,实现模型能力的均衡提升,综合性能达到帕累托最优(Pareto-Optimal)。
从图中可以看出,LongCat-Flash-Thinking的训练流程分为多个阶段,每个阶段专注于不同能力的培养。这种分阶段、领域并行的训练方法,有效解决了传统混合训练模式下的不稳定性问题,使模型在各领域都能达到顶尖水平。
异步弹性共卡系统DORA
LongCat-Flash-Thinking的训练基石是自主设计的异步弹性共卡系统(DORA)。该系统通过弹性共卡调度(Elastic Colocation)与多版本异步流水线(Multi-Version Asynchronous Pipeline)设计,在实现相较于同步RL训练框架三倍提速的同时,确保了每条样本的策略一致性。系统进一步实现了高效的KV缓存复用,能够支撑万卡规模集群的稳定运行。
双路径智能体推理框架
为提升模型的智能体推理能力,美团提出创新性的"双路径推理框架"。该框架能够自主筛选最优查询样本,并通过自动化流程将智能体推理与工具使用相结合,使模型能够智能识别并调用外部工具(如代码执行器、API等)。基于AIME25实测数据,LongCat-Flash-Thinking在该框架下展现出更高效的智能体工具调用能力,在确保90%准确率的前提下,相较于不使用工具调用节省了64.5%的Tokens(从19653到6965)。
性能表现:多领域突破开源SOTA
LongCat-Flash-Thinking在多项权威评测中刷新纪录,在各类推理任务中均展现出持续领先的性能:
数学推理:在HMMT-25和AIME-24基准上,分别比OpenAI o3提升1.86%和16.4%,尤其在高等数学问题求解领域性能提升幅度达到30%以上。
代码能力:在LiveCodeBench基准上以79.4分显著超越参与评估的开源模型,比OpenAI o3提升4.20%,与顶级闭源模型GPT-5表现相当。
通用推理:在ARC-AGI基准测试中以50.3分超越OpenAI o3、Gemini2.5 Pro等顶尖闭源模型,比OpenAI o3提升6.34%。
智能体能力:在τ2-Bench-Airline基准上,比OpenAI o3提升9.47%,在复杂场景智能体交互等领域表现突出。
形式化推理:在MiniF2F-test基准中的pass@1获得67.6的分数,大幅领先所有其他参与评估的模型,在pass@8和pass@32中同样保持了领先优势。
从图中多维度对比数据可以看出,LongCat-Flash-Thinking在数学推理、代码生成等复杂任务上已达到开源模型的领先水平,部分指标接近或超越闭源模型。这种性能表现验证了其架构设计的优越性,也为开源社区提供了一个高性能的大模型选择。
行业影响与趋势
LongCat-Flash-Thinking的发布标志着中国大语言模型技术正式进入"深度推理"时代。随着模型在商业场景的逐步落地,有望在智能客服、自动驾驶决策、工业质检等领域催生一批创新应用。
降低大模型应用门槛
该方案显著降低了千亿级模型的使用门槛,推动AI推理模型的普惠化发展。开发者可通过访问官方代码仓库(https://gitcode.com/hf_mirrors/meituan-longcat/LongCat-Flash-Thinking)获取完整技术资源,同时美团AI开放平台也提供了在线推理Demo服务。
开源生态的中国力量
中国AI正从"参与者"转向"领导者"。企业从应用导向转向深度研发,国家层面将AGI置于战略核心,推动技术自主与生态可控。LongCat-Flash-Thinking等开源模型在全球社区影响力迅速提升,标志着开源AI已经进入了中国时间。
本地生活场景的深度赋能
LongCat-Flash-Thinking并非凭空诞生,它早已在美团的AI搜索、AI订座、AI开票等功能中进行了无数次"实习"。美团多年沉淀的本地生活数据成为技术护城河,没有一家大模型能有那么多真实的本地生活场景数据,也没有一家能清楚用户一年去过哪家店铺次数最多,吃过哪家外卖次数最多。
如上图所示,美团LongCat大模型的交互界面已增加"深度思考"功能按钮。这一细节不仅体现了模型的技术特性,也预示着大模型交互方式正在从"被动执行"向"主动思考"演进,为用户提供更智能的服务体验。
总结与前瞻
LongCat-Flash-Thinking通过创新的混合专家架构、领域并行训练和动态计算机制,在5600亿参数规模下实现了仅激活270亿参数即可达到行业领先性能,重新定义了大模型效率标准。该模型的开源发布不仅展示了中国企业在大模型核心技术领域的创新实力,更为行业提供了兼顾高性能与实用性的技术范本。
随着开源生态的不断完善和应用场景的持续拓展,这款融合深度推理与工具调用能力的新一代模型,有望成为推动人工智能技术从通用能力向行业深度应用转化的关键基础设施,为千行百业的智能化升级注入新动能。未来,我们期待看到LongCat-Flash-Thinking在更多垂直领域的应用落地,以及美团在大模型技术路线上的持续创新。
【免费下载链接】LongCat-Flash-Thinking项目地址: https://ai.gitcode.com/hf_mirrors/meituan-longcat/LongCat-Flash-Thinking
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考