news 2026/4/15 15:17:08

120亿参数重构AI效率:GLM-4.5-Air开启智能体部署新纪元

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
120亿参数重构AI效率:GLM-4.5-Air开启智能体部署新纪元

120亿参数重构AI效率:GLM-4.5-Air开启智能体部署新纪元

【免费下载链接】GLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求项目地址: https://ai.gitcode.com/zai-org/GLM-4.5-Air

导语

智谱AI最新开源的GLM-4.5-Air以1060亿总参数(120亿活跃参数)实现59.8分的综合性能,在保持效率提升4倍的同时,重新定义了轻量级模型的性能边界。

行业现状:大模型发展的效率瓶颈

2025年大语言模型领域正面临"性能与效率"的双重挑战。一方面,企业级应用对模型能力要求持续提升,需要处理更复杂的推理任务和更长文本;另一方面,部署成本、计算资源消耗和推理延迟成为落地关键障碍。据市场调研显示,72%的企业计划增加AI投入,但近60%的预算被硬件成本占用。

当前市场呈现两极分化:闭源大模型如GPT-4性能强劲但成本高昂,而多数开源模型虽部署门槛低却难以满足复杂业务需求。这种"要么性能不足,要么成本过高"的困境,催生了对高效能模型的迫切需求。根据IDC数据,2025年全球AI支出已突破1000亿美元,其中Agent智能体占比达35%,企业级AI Agent应用市场规模约为232亿元。

核心亮点:三大技术突破重构效率边界

1. 混合推理双模式架构

GLM-4.5-Air首创"思考/非思考"双模机制:处理数学证明、多步骤编码等复杂任务时自动激活"思考模式",通过内部工作记忆模拟人类推理过程;客服问答、信息摘要等简单场景则启用"非思考模式"直接输出结果。实测显示,该机制使模型在Terminal-Bench工具调用成功率达90.6%,同时将简单问答响应速度提升42%。

2. 深度优化的MoE工程实现

不同于同类模型增加专家数量的策略,GLM-4.5-Air选择"减宽增高"设计:隐藏维度从8192降至5120,层数从40层提升至64层。这种结构使模型在MMLU推理任务准确率提升3.7%,激活参数利用率达92%,远超行业平均的75%。

如上图所示,GLM-4.5以63.2分位列全球模型第三,而GLM-4.5-Air以59.8分的成绩在轻量化模型中领先,尤其在编码和智能体任务上超越同规模的GPT-OSS-120B。这一性能分布直观展示了MoE架构在平衡参数规模与推理效率方面的显著优势。

3. FP8量化技术的极致优化

通过FP8量化技术,GLM-4.5-Air将模型文件大小压缩至113GB,仅为BF16版本的51%。能源企业实测显示,在H100 GPU上部署时,FP8版本相比BF16版本推理速度提升1.8倍,功耗降低35%,单月算力成本减少约4.2万元。

该图展示了GLM-4.5-Air在不同应用场景的性能表现,其中在TAU-Bench零售场景(77.9分)和航空场景(60.8分)中均超越Kimi K2和DeepSeek-R1,尤其在多轮函数调用(BFCL-v3)任务上达到76.4分,验证了其在企业级智能客服、自动化运维等场景的实用价值。

行业影响与趋势:开源模型的商业化突围

GLM-4.5-Air的MIT开源许可已吸引Shopify、小米等200+商业项目采用。在SWE-bench Verified编码任务中57.6%的准确率,使中小企业首次能以低于1万美元的硬件成本部署企业级代码助手。

典型案例显示,跨境电商基于GLM-4.5-Air构建的智能客服系统将问题解决率从68%提升至89%,人力成本降低40%;券商利用其128K上下文能力处理完整财报分析,将报告生成时间从4小时缩短至20分钟,准确率达85%以上。

从图中可以看出,GLM-4.5-Air以1060亿参数实现59.8分,与3550亿参数的GLM-4.5(63.2分)仅有3.4分差距,却实现了4倍的效率提升,标志着行业从单纯参数扩张转向结构优化的战略转型。

随着H200等硬件对FP8支持的深化,2026年有望出现更多"百亿参数级性能、十亿参数级成本"的高效模型,推动AI智能体向中小企业普及。

总结

GLM-4.5-Air的推出标志着大模型产业正式进入"能效比竞争"新阶段。其核心价值不仅在于性能指标的突破,更在于证明了"100亿级激活参数可媲美传统300亿级密集模型"的技术路径。

对于企业决策者,当前正是布局智能体应用的战略窗口期,建议重点关注三个方向:基于混合推理模式构建多场景自适应智能体、利用FP8量化版本降低部署门槛、通过模型微调实现垂直领域知识沉淀。随着技术迭代,智能体应用的成本壁垒将进一步打破,为各行业带来效率革命新机遇。

开发者可通过以下命令快速部署:

git clone https://gitcode.com/zai-org/GLM-4.5-Air cd GLM-4.5-Air pip install -r requirements.txt python -m vllm.entrypoints.api_server --model . --tensor-parallel-size 2 --quantization fp8

【免费下载链接】GLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求项目地址: https://ai.gitcode.com/zai-org/GLM-4.5-Air

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/12 20:43:15

Shotcut视频水印实战:从手动操作到批量自动化处理的完整指南

Shotcut视频水印实战:从手动操作到批量自动化处理的完整指南 【免费下载链接】shotcut cross-platform (Qt), open-source (GPLv3) video editor 项目地址: https://gitcode.com/gh_mirrors/sh/shotcut 还在为每个视频手动添加水印而耗费大量时间&#xff1f…

作者头像 李华
网站建设 2026/4/13 10:34:28

【JavaWeb】Servlet_jar包导入和Content-Type问题

目录servlet-api.jar导入问题Content-Type响应头的问题servlet-api.jar导入问题 servlet-api.jar文件路径在tomcat安装目录下的lib目录下,该目录下的jar包,是所有tomcat项目共享的,所以其实没必要在web/WEB-INF/lib下再次导入 在设置里面&am…

作者头像 李华
网站建设 2026/4/12 12:52:46

C语言知识点之进制学习(一)

如大家所了解的,进制是一种计数的方式,数值的表示形式。进制即是进位计数制。是用一组固定的符号和统一的规则来表示数值的方法。生活中常见的进制有十进制、二进制、八进制、十六进制。 在计算机中,数据都是以二进制形式存储的。 进制主要包…

作者头像 李华
网站建设 2026/4/7 21:35:44

终极移动端滑动控件指南:5分钟快速掌握核心用法

终极移动端滑动控件指南:5分钟快速掌握核心用法 【免费下载链接】jquery-mobile jquery-archive/jquery-mobile: jQuery Mobile 是 jQuery 团队开发的一个移动 web 应用框架,旨在为跨平台的移动设备提供一致的 UI 组件和触屏优化体验。不过这个仓库是归档…

作者头像 李华
网站建设 2026/4/14 12:23:58

vLLM游戏AI实时推理:突破性能瓶颈的终极技术指南

vLLM游戏AI实时推理:突破性能瓶颈的终极技术指南 【免费下载链接】vllm A high-throughput and memory-efficient inference and serving engine for LLMs 项目地址: https://gitcode.com/GitHub_Trending/vl/vllm 你是否经历过游戏NPC对话延迟、多玩家并发时…

作者头像 李华
网站建设 2026/4/13 6:01:05

U-2-Net实战宝典:掌握显著对象检测的核心训练技巧

U-2-Net实战宝典:掌握显著对象检测的核心训练技巧 【免费下载链接】U-2-Net U-2-Net - 用于显著对象检测的深度学习模型,具有嵌套的U型结构。 项目地址: https://gitcode.com/gh_mirrors/u2/U-2-Net 想要快速掌握U-2-Net显著对象检测模型的训练精…

作者头像 李华