智谱正式发布 GLM-5:主攻编程与智能体,国产大模型春节档再添猛将

2026-02-12 20:29
77
2月11日,智谱AI正式推出新一代旗舰大模型GLM5,明确主攻编程与智能体核心能力,官方宣称其在开源领域实现最优表现。此前在OpenRouter平台登顶热度榜首的神秘模型“Pony Alpha”,也被证实为GLM5的测试版本。该模型已上线chat.z.ai平台,标志着国产大模型在技术能力与国际领先水平的差距持续缩小,为开发者群体提供了新的高性能开源选择。

一、核心升级:参数规模与架构双重突破
GLM5在基础配置上实现大幅迭代,为能力提升奠定坚实基础:
参数与数据扩容:总参数量从上一代GLM4.7的355B跃升至744B(社区推测约745B),激活参数从32B提升至40B,预训练数据量从23T扩充至28.5T,更大规模的算力投入显著增强了模型的通用智能水平。
架构深度优化:采用MoE(混合专家)架构,构建78层隐藏层,集成256个专家模块,每次推理激活8个,激活参数约44B,稀疏度5.9%,与DeepSeekV3.2水平接近;首次引入DeepSeek稀疏注意力机制(DSA)与多Token预测(MTP)技术,在保持长文本处理效果无损的前提下,降低部署成本并提升Token利用效率,上下文窗口最高支持202K token,可高效处理超长文本任务。
技术复用优势:架构与DeepSeekV3/V3.2保持一致,可直接受益于vLLM、SGLang等推理框架已有的优化,大幅降低部署门槛。
二、核心能力:编程与智能体实现开源领先
GLM5的核心突破集中在编程与智能体两大场景,性能表现亮眼:
编程能力大幅提升:在前端、后端、长程编程任务等场景中,平均性能较上一代提升超20%,真实编程体验逼近Claude Opus 4.5水平。能够以极少人工干预,自主完成Agentic长程规划与执行、后端重构、深度调试等复杂系统工程任务,适配专业开发全流程需求。
智能体能力达成开源SOTA:在BrowseComp(联网检索与信息理解)、MCPAtlas(大规模端到端工具调用)及τ2Bench(复杂场景下自动代理工具规划与执行)三项权威评测中均斩获最优表现,展现出强大的工具调用与复杂任务规划执行能力。
技术支撑体系:依托全新构建的“Slime”训练框架,支持更大规模模型架构与更复杂的强化学习任务,提升后训练流程效率;创新提出异步智能体强化学习算法,使模型具备从长程交互中持续学习的能力,有效激发预训练模型的深层潜力。
三、行业背景:国产大模型春节档密集竞逐
GLM5的发布恰逢国产大模型“春节档”发布潮,赛道竞争进入白热化阶段:
同日晚间,Minimax同步上线Minimax 2.5,距离上一版本仅间隔一个多月;此前DeepSeek已推出新模型,阿里千问Qwen 3.5、字节跳动Seedance 2.0等产品也相继亮相。
多家厂商不约而同选择春节窗口期集中推新,折射出国产大模型赛道“集体冲锋”的竞争特征,行业正从技术探索向规模化落地加速推进。
目前,GLM5的详细技术文档尚未完全披露,其实际性能表现仍有待开发者社区与专业机构的进一步验证。但从核心配置与官方披露的评测数据来看,GLM5的推出将进一步加剧国产大模型的竞争格局,推动开源生态向更高性能、更优体验演进。
0
好文章,需要你的鼓励