news 2026/4/30 22:55:17

智谱AI发布GLM-4-9B-Chat开源模型:性能超越Llama-3-8B,支持128K超长上下文与多模态交互

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
智谱AI发布GLM-4-9B-Chat开源模型:性能超越Llama-3-8B,支持128K超长上下文与多模态交互

模型概述

【免费下载链接】glm-4-9b-chat-hf项目地址: https://ai.gitcode.com/zai-org/glm-4-9b-chat-hf

GLM-4-9B是智谱AI推出的GLM-4系列最新一代预训练模型的开源版本。在语义理解、数学推理、代码生成及知识问答等多维度数据集评测中,基础模型GLM-4-9B及其经过人类偏好对齐的对话版本GLM-4-9B-Chat均展现出超越Llama-3-8B的卓越性能。除了支持多轮对话外,GLM-4-9B-Chat还集成了网页浏览、代码执行、自定义工具调用(Function Call)和超长上下文推理(最长支持128K上下文窗口)等高级特性。本代模型新增多语言支持能力,可流畅处理日语、韩语、德语等26种语言。同步发布的还有支持1M上下文长度(约200万汉字)的GLM-4-9B-Chat-1M模型,以及基于GLM-4-9B开发的多模态模型GLM-4V-9B。其中GLM-4V-9B具备1120*1120高分辨率下的中英文对话能力,在多模态评测中,包括中英文综合能力、感知推理、文本识别和图表理解等任务上,性能均超越GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max及Claude 3 Opus。

性能评测

我们在多项经典任务中对GLM-4-9B-Chat模型进行了全面评估,具体结果如下表所示:

模型名称AlignBench-v2MT-BenchIFEvalMMLUC-EvalGSM8KMATHHumanEvalNCB
Llama-3-8B-Instruct5.128.0068.5868.451.379.630.062.224.7
ChatGLM3-6B3.975.5028.166.469.072.325.758.511.3
GLM-4-9B-Chat6.618.3569.072.475.679.650.671.832.2

超长上下文能力

在1M上下文长度下进行的needle实验结果如下:

如上图所示,该实验直观展示了GLM-4-9B-Chat在百万级上下文长度中精准定位关键信息的能力。这一特性充分体现了模型在处理超长文本时的信息保持能力,为法律文档分析、学术论文理解等长文本应用场景提供了核心技术支撑。

我们进一步在LongBench数据集上评估了模型的长文本处理能力,结果如下:

该图表清晰呈现了GLM-4-9B-Chat与其他主流模型在长文本任务上的性能对比。从数据可以看出,GLM-4-9B-Chat在多类长文本理解任务中均处于领先地位,这为需要处理书籍、报告等超长文档的应用场景提供了可靠的技术保障。

多语言支持能力

我们在六个多语言数据集上对GLM-4-9B-Chat和Llama-3-8B-Instruct进行了对比测试,各数据集的测试结果及涵盖语言如下表所示:

数据集名称Llama-3-8B-InstructGLM-4-9B-Chat涵盖语言
M-MMLU49.656.6全部
FLORES25.028.8俄语、西班牙语、德语、法语、意大利语、葡萄牙语、波兰语、日语、荷兰语、阿拉伯语、土耳其语、捷克语、越南语、波斯语、匈牙利语、希腊语、罗马尼亚语、瑞典语、芬兰语、韩语、丹麦语、保加利亚语、挪威语
MGSM54.065.3中文、英语、孟加拉语、德语、西班牙语、法语、日语、俄语、斯瓦希里语、泰卢固语、泰语
XWinograd61.773.1中文、英语、法语、日语、俄语、葡萄牙语
XStoryCloze84.790.7中文、英语、阿拉伯语、西班牙语、巴斯克语、印地语、印尼语、俄语、斯瓦希里语、泰卢固语
XCOPA73.380.1中文、爱沙尼亚语、印尼语、意大利语、克丘亚语、斯瓦希里语、泰米尔语、泰语、土耳其语、越南语

工具调用能力

在Berkeley Function Calling Leaderboard上的测试结果如下:

模型名称综合准确率AST摘要执行摘要相关性
Llama-3-8B-Instruct58.8859.2570.0145.83
gpt-4-turbo-2024-04-0981.2482.1478.6188.75
ChatGLM3-6B57.8862.1869.785.42
GLM-4-9B-Chat81.0080.2684.4087.92

本仓库为GLM-4-9B-Chat的模型仓库,支持128K上下文长度。

快速开始

更多推理代码和环境要求,请访问我们的GitHub页面。

请严格按照依赖说明进行安装,否则可能导致运行异常。

使用Transformers库(4.46.0及以上版本)进行推理:

from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained('THUDM/glm-4-9b-chat-hf') model = AutoModelForCausalLM.from_pretrained('THUDM/glm-4-9b-chat-hf', device_map="auto") message = [ { "role": "system", "content": "Answer the following question." }, { "role": "user", "content": "How many legs does a cat have?" } ] inputs = tokenizer.apply_chat_template( message, return_tensors='pt', add_generation_prompt=True, return_dict=True, ).to(model.device) input_len = inputs['input_ids'].shape[1] generate_kwargs = { "input_ids": inputs['input_ids'], "attention_mask": inputs['attention_mask'], "max_new_tokens": 128, "do_sample": False, } out = model.generate(**generate_kwargs) print(tokenizer.decode(out[0][input_len:], skip_special_tokens=True))

使用vLLM库(0.6.4及以上版本)进行推理:

from transformers import AutoTokenizer from vllm import LLM, SamplingParams # GLM-4-9B-Chat-1M # max_model_len, tp_size = 1048576, 4 # 如遇内存溢出问题,建议减小max_model_len或增加tp_size max_model_len, tp_size = 131072, 1 model_name = "THUDM/glm-4-9b-chat-hf" prompt = [{"role": "user", "content": "what is your name?"}] tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) llm = LLM( model=model_name, tensor_parallel_size=tp_size, max_model_len=max_model_len, trust_remote_code=True, enforce_eager=True, # GLM-4-9B-Chat-1M-HF 如遇内存溢出问题,建议启用以下参数 # enable_chunked_prefill=True, # max_num_batched_tokens=8192 ) stop_token_ids = [151329, 151336, 151338] sampling_params = SamplingParams(temperature=0.95, max_tokens=1024, stop_token_ids=stop_token_ids) inputs = tokenizer.apply_chat_template(prompt, tokenize=False, add_generation_prompt=True) outputs = llm.generate(prompts=inputs, sampling_params=sampling_params) print(outputs[0].outputs[0].text)

许可证说明

GLM-4模型权重的使用遵循LICENSE中的条款。

引用说明

如果您发现我们的工作对您的研究有用,请考虑引用以下论文:

@misc{glm2024chatglm, title={ChatGLM: A Family of Large Language Models from GLM-130B to GLM-4 All Tools}, author={Team GLM and Aohan Zeng and Bin Xu and Bowen Wang and Chenhui Zhang and Da Yin and Diego Rojas and Guanyu Feng and Hanlin Zhao and Hanyu Lai and Hao Yu and Hongning Wang and Jiadai Sun and Jiajie Zhang and Jiale Cheng and Jiayi Gui and Jie Tang and Jing Zhang and Juanzi Li and Lei Zhao and Lindong Wu and Lucen Zhong and Mingdao Liu and Minlie Huang and Peng Zhang and Qinkai Zheng and Rui Lu and Shuaiqi Duan and Shudan Zhang and Shulin Cao and Shuxun Yang and Weng Lam Tam and Wenyi Zhao and Xiao Liu and Xiao Xia and Xiaohan Zhang and Xiaotao Gu and Xin Lv and Xinghan Liu and Xinyi Liu and Xinyue Yang and Xixuan Song and Xunkai Zhang and Yifan An and Yifan Xu and Yilin Niu and Yuantao Yang and Yueyan Li and Yushi Bai and Yuxiao Dong and Zehan Qi and Zhaoyu Wang and Zhen Yang and Zhengxiao Du and Zhenyu Hou and Zihan Wang}, year={2024}, eprint={2406.12793}, archivePrefix={arXiv}, primaryClass={id='cs.CL' full_name='Computation and Language' is_active=True alt_name='cmp-lg' in_archive='cs' is_general=False description='Covers natural language processing. Roughly includes material in ACM Subject Class I.2.7. Note that work on artificial languages (programming languages, logics, formal systems) that does not explicitly address natural-language issues broadly construed (natural-language processing, computational linguistics, speech, text retrieval, etc.) is not appropriate for this area.'} }

重要提示:如果您使用本仓库的权重,请确保将transformers库更新至transformers>=4.46.0版本,旧版本的transformers库与此权重不兼容。

【免费下载链接】glm-4-9b-chat-hf项目地址: https://ai.gitcode.com/zai-org/glm-4-9b-chat-hf

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/26 5:50:29

Android系统安全检测绕过技术:从原理到实战

Android系统安全检测绕过技术:从原理到实战 【免费下载链接】safetynet-fix Google SafetyNet attestation workarounds for Magisk 项目地址: https://gitcode.com/gh_mirrors/sa/safetynet-fix 还在为Android设备的SafetyNet检测而烦恼吗?本文将…

作者头像 李华
网站建设 2026/4/28 22:55:42

Umi-OCR Windows 7系统兼容性完美解决方案

Umi-OCR Windows 7系统兼容性完美解决方案 【免费下载链接】Umi-OCR Umi-OCR: 这是一个免费、开源、可批量处理的离线OCR软件,适用于Windows系统,支持截图OCR、批量OCR、二维码识别等功能。 项目地址: https://gitcode.com/GitHub_Trending/um/Umi-OCR…

作者头像 李华
网站建设 2026/4/25 9:21:50

WinAsar:Windows平台asar文件处理的终极解决方案

WinAsar:Windows平台asar文件处理的终极解决方案 【免费下载链接】WinAsar 项目地址: https://gitcode.com/gh_mirrors/wi/WinAsar 作为Electron应用开发中不可或缺的asar文件处理工具,WinAsar为Windows用户提供了简单高效的图形界面解决方案。这…

作者头像 李华
网站建设 2026/4/30 11:16:07

多设备办公新体验:Lan Mouse让一套键鼠掌控全局

还在为桌面上的多台电脑频繁切换键盘鼠标而烦恼吗?想象一下这样的场景:你的左边是Windows工作站,右边是Linux开发机,面前还摆着macOS笔记本。每次切换设备都要重新调整手部位置,打断工作流程,效率大打折扣。…

作者头像 李华
网站建设 2026/4/22 14:55:57

Freqtrade策略评估终极指南:5步从数据小白到量化高手

Freqtrade策略评估终极指南:5步从数据小白到量化高手 【免费下载链接】freqtrade Free, open source crypto trading bot 项目地址: https://gitcode.com/GitHub_Trending/fr/freqtrade 还在为看不懂回测报告发愁吗?🤔 每次看到一堆数…

作者头像 李华
网站建设 2026/4/22 1:48:33

openMES开源制造执行系统终极部署指南:3步快速搭建企业级数字化工厂

openMES是一款严格遵循ISA88和ISA95国际标准构建的开源制造执行系统,为中小制造企业提供完整的数字化转型解决方案。该系统基于成熟的Java技术栈开发,通过模块化架构设计实现生产过程的全面数字化管理,助力企业快速构建智能化制造体系。 【免…

作者头像 李华