刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

就在刚刚,智谱一口气上线并开源了三大类最新的GLM模型:

  • 沉思模型GLM-Z1-Rumination
  • 推理模型GLM-Z1-Air
  • 基座模型GLM-4-Air-0414

若是以模型大小(9B和32B)来划分,更是可以细分为六款

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

首先是两个9B大小的模型:

  • GLM-4-9B-0414:主攻对话,序列长度介于32K到128K之间
  • GLM-Z1-9B-0414:主攻推理,序列长度介于32K到128K之间

还有四个32B大小的模型,它们分别是:

  • GLM-4-32B-Base-0414:基座模型,序列长度介于32K到128K之间
  • GLM-4-32B-0414:主攻对话,序列长度介于32K到128K之间
  • GLM-Z1-32B-0414:主攻推理,序列长度介于32K到128K之间
  • GLM-Z1-32B-Rumination-0414:主攻推理,序列长度为128K

而随着一系列模型的开源,智谱也解锁了一项行业之最——

推理模型GLM-Z1-32B-0414做到了性能与DeepSeek-R1等顶尖模型相媲美的同时,实测推理速度可达200 tokens/秒

如此速度,已然是目前国内商业模型中速度最快,而且它的高性价比版本价格也仅为DeepSeek-R1的1/30

值得一提的是,本次开源的所有模型均采用宽松的MIT许可协议。

这就意味着上述的所有模型都可以免费用于商业用途、自由分发,为开发者提供了极大的使用和开发自由度。

那么这些开源模型的效果又如何?

(PS:文末有彩蛋~)

先看性能

首先来看下GLM-4-32B-0414

它是一款拥有320亿参数的基座大模型,其性能足以比肩国内外规模更大的主流模型。

据了解,这个模型基于15T高质量数据进行预训练,其中特别融入了大量推理类合成数据,为后续强化学习扩展提供了坚实基础。

在后训练阶段,智谱团队不仅完成了对话场景的人类偏好对齐,还运用拒绝采样和强化学习等先进技术,重点提升了模型在指令理解、工程代码生成、函数调用等关键任务上的能力,从而显着增强了智能体执行任务的核心素质。

实际测试表明,GLM-4-32B-0414在工程代码编写、Artifacts生成、函数调用、搜索问答及报告撰写等多个应用场景均展现出色表现。

部分基准测试指标已达到或超越 GPT-4o、DeepSeek-V3-0324(671B)等更大规模模型的水平。

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

从实测效果来看,GLM-4-32B-0414进一步提升了代码生成能力,可处理并生成结构更复杂的单文件代码。

例如来上这么一段Prompt:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

再如:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

以及设计一个小游戏也是不在话下:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

再来看下GLM-Z1-32B-0414的性能,一款专为深度推理优化的模型。

这个模型在GLM-4-32B-0414的基础上,采用了冷启动结合扩展强化学习的策略,并针对数学推导、代码生成、逻辑推理等高难度任务进行了专项优化,显着提升了复杂问题的解决能力。

此外,它还通过引入基于对战排序反馈的通用强化学习(RLHF),模型的泛化能力得到进一步强化。

尽管仅拥有32B参数,GLM-Z1-32B-0414在部分任务上的表现已可媲美 671B 参数的DeepSeek-R1。

在AIME 24/25、LiveCodeBench、GPQA等权威基准测试中,该模型展现出卓越的数理推理能力,能够高效应对更广泛、更具挑战性的复杂任务。

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

接下来,是更小规模的GLM-Z1-9B-0414,在技术上是沿用了上述模型的方法。

虽然只有9B大小,但它在数学推理及通用任务上展现出超越参数规模的卓越性能,综合表现稳居同量级开源模型前列。

尤其值得关注的是,在资源受限的应用场景中,该模型能够高效平衡计算效率与推理质量,为轻量化AI部署提供了极具竞争力的解决方案。

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

最后,再来看下沉思模型GLM-Z1-Rumination-32B-0414

这个模型可以说是智谱对AGI未来形态的一个探索。

沉思模型采用与传统推理模型截然不同的工作范式,通过多步深度思考机制有效应对高度开放性和复杂性问题。

其核心突破体现在三个方面:

  1. 在深度推理过程中智能调用搜索工具处理复杂子任务;
  2. 创新性地引入多维度规则奖励体系,实现端到端强化学习的精准引导与扩展;
  3. 完整支持”问题发现→信息检索→逻辑分析→任务解决”的研究闭环系统。

这些技术创新使该模型在学术写作、深度研究等需要复杂认知能力的任务上展现出显着优势。

例如让它回答一个科学假设推演问题:

再看价格

除模型开源外,基座、推理两类模型也已同步上线智谱MaaS开放平台(bigmodel.cn),面向企业与开发者提供API服务。

本次上线的基座模型提供两个版本:GLM-4-Air-250414和GLM-4-Flash-250414,其中GLM-4-Flash-250414完全免费。

上线的推理模型分为三个版本,分别满足不同场景需求:

  • GLM-Z1-AirX(极速版):定位国内最快推理模型,推理速度可达 200 tokens/秒,比常规快 8 倍;
  • GLM-Z1-Air(高性价比版):价格仅为 DeepSeek-R1 的 1/30,适合高频调用场景;
  • GLM-Z1-Flash(免费版):支持免费使用,旨在进一步降低模型使用门槛。

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

为了更加一目了然,价格表如下:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

至于配置方面,32B基础模型、32B推理模型、32B沉思模型(裸模型)的要求如下:

  • 1张H100 / A100或者更先进的NVIDIA旗舰显卡
  • 4张4090/5090/3090
One More Thing

除了上述内容之外,智谱这次还有一个亮点的动作——

拿下一个顶级域名Z.ai!

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

目前已经上线了下面三款模型:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

而且官方还亮出了一个比较有意思的slogan:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

最后,纵观智谱在大模型时代的发展,不得不感慨其更新迭代以及开源的速度。

这样难怪它能成为第一家正式启动IPO流程的“大模型六小龙”。

体验地址:
z.ai

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/5763.html

(0)
人脑网的头像人脑网
上一篇 2025年4月15日 下午3:23
下一篇 2025年4月15日 下午3:23

相关推荐

  • 人类一生所学不过4GB,加州理工顶刊新研究引热议

    24小时不间断学习且不遗忘,一辈子也只有4GB的“知识储量”? 科学家们最新研究,计算出了人类学习积累上限,就这么多~~(甚至还不如一块U盘能装)。 这是来自Cell旗下神经科学顶刊Neuron上的一项工作,它提出了一个发人深省的悖论: 由此,按照每秒10bit的速度来算,人类24小时不间断学习且不遗忘,100年储存的知识也不过4GB。 什么概念呢?来和大模…

    2025年4月14日
    1400
  • GitHub版DeepResearch来了!覆盖所有代码库,模型架构可视化

    专为GitHub打造的免费百科全书来了—— DeepWiki,覆盖全球所有GitHub存储库,无需注册即可食用。 最简单的触发模式,就是只需要把链接中「github」改为「deepwiki」字样,就可以生成项目专属的wiki百科页面。 整个页面模块清晰流畅,还有生成可视化架构图(对比GitHub项目主页是没有的),每个部分都有相关的资料来源,可以直接触达,开…

    2025年4月27日
    500
  • 拜拜邀请码!首个现货超级智能体实测

    和邀请码、内测说拜拜,百度95后年轻小团队以内部创业形式,30天肝出了个“手机端Manus”现货。 主打「一站式」解决各种复杂问题,彻底改变AI手机助手“一问一答,用户需逐步引导AI给出期望答案”的模式。 话不多说,来看栗子。 让它为上班久坐的宝子们制定一份减脂计划,只需输入极短的prompt,就能轻松get整套精美定制化方案: 饮食模块、运动模块、行为干预…

    2025年4月26日
    200
  • 质量无损,算力砍半!达摩院视觉生成新架构出道即SOTA|ICLR2025

    算力砍半,视觉生成任务依然SOTA! 达摩院在ICLR 2025上抛出的DyDiT架构:通过时间步长与空间区域的智能资源分配,将DiT模型的推理算力削减51%,生成速度提升1.73倍,而FID指标几乎无损! 更惊人的是,这一突破仅需3%的微调成本。 该方法通过引入动态化调整机制,可精准削减视觉生成任务中50%的推理算力,有效缓解传统扩散模型的计算冗余问题,相…

    2025年4月25日
    500
  • 1450亿!马斯克xAI与X合并后再寻资金,将成第二大初创企业单轮融资

    马斯克xAI与X合并后,又有新动向! 彭博社消息,马斯克正在为合并后的XAI Holding寻求一笔200亿美元(约1450亿人民币)的融资。 如果交易完成,新·XAI的估值将超过1200亿美元(约8745亿人民币)。 届时,这笔交易也将成为继OpenAI(400亿美元)之后史上第二大初创企业单轮融资。 马斯克筹钱还债 按照彭博社的说法,马斯克这次寻求融资的…

    2025年4月27日
    500

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信