快速了解

Zhipu AI / ChatGLM · 基础层 + 应用层 · 北京 · Listed 243.8亿元人民币(IPO前,2025年3月);2026年1月上市后市值约2568亿港元 估值 · 超4亿元(2025年H1) ARR · 企业用户8000+;C端活跃用户300万;付费用户22万 用户 竞品:通义千问(阿里) · 豆包(字节跳动) · MiniMax

一句话定位

清华系大模型独角兽,通过开源+闭源双轨战略和B端API普惠定价快速占领企业市场,成为中国首个大模型上市公司(2026年1月港交所IPO,市值2568亿港元),B端变现能力国内最强12


基本面表

维度数据来源
成立时间2019年4月15日Zhipu AI官网
创始人唐杰(清华PhD,IEEE Fellow)、李卷子(清华教授)Zhipu AI官网
总融资额超83.6亿元人民币(8轮)Yahoo Finance
IPO信息2026年1月8日港交所上市(股票代码:2513),发行价116.2港元/股量子位
上市融资募资52.3亿港元量子位
当前市值约2568亿港元(2026年2月27日)Yahoo Finance
2022年收入5740万元量子位
2023年收入1.245亿元(同比+116%)量子位
2024年收入3.124亿元(同比+151%)量子位
2025年H1收入1.91亿元(同比+325%)量子位
当前ARR超4亿元(2025年H1)36氪
企业客户数8000+家机构36氪
付费用户22万(2025年)36氪
活跃用户300万+36氪
核心产品ChatGLM、GLM系列、智谱清言、CodeGeeX、CogVLM、CogVideoX、AutoGLM官方文档
API年收入增速2024年同比增长30倍原文档
日均Token增长2024年增长150倍原文档
Tokens付费增速2025年付费Tokens增长50倍36氪

一、发展脉络与创始人基因

创始人背景与学术积累

唐杰(Tang Jie):清华大学计算机科学与技术系教授,是Zhipu AI的创始人兼首席科学官。唐杰是IEEE、ACM、AAAI Fellow,曾在北京智源人工智能研究院(BAAI)担任要职,主导开发了2021年推出的”悟道”(Wu Dao)模型——当时全球最大的大模型,参数规模达1.75万亿3。他将悟道的研究成果转化到Zhipu中,为公司奠定了坚实的学术基础。

李卷子(Li Juanzi):清华大学计算机科学与技术系教授,Zhipu AI的联合创始人兼董事长。李卷子在知识图谱和知识表示学习领域有深厚造诣,是Zhipu早期的技术方向指引者3

基因构成:智谱AI的核心优势来自清华大学计算机系的顶级人才聚集、国家高端AI研究资源的支撑,以及这两位创始人在全球AI前沿研究中积累的技术底蕴。这使得公司在成立时就站在了大模型研究的最前沿。

关键发展脉络

时间重要事件战略意义
2019.04公司成立,从清华AI研究院孵化ChatGPT发布前两年,抢占大模型创业风口
2021.06参与开发”悟道”1.75万亿参数大模型掌握全球最先进的大模型研究成果
2022.12发布GLM-130B + ChatGLM(文本版)国产大模型代表作,开源+闭源双轨启动4
2023.03开源ChatGLM-6B,GitHub热度突破5万+star开源社区驱动增长的关键拐点
2023-2024融资加速,8轮融资累计83.6亿元投资方包括阿里、腾讯、蚂蚁、美团、小米等头部机构5
2024.05发布GLM-4、CodeGeeX、CogVLM完整矩阵从单一模型向多模态、垂直化转型
2024.08API规模化商业化启动日均Token消耗增长150倍,收入激增1
2024.10GLM-4.5发布,性能对标GPT-4在Chatbot Arena排名持续提升6
2024.12推出AutoGLM自主智能体,支持50+应用自动化进入agent赛道,对标OpenAI o17
2025.04启动IPO流程,融资48亿元估值升至243.8亿元,冲刺”大模型第一股”2
2025.07发布GLM-4.5 Air、GLM-Z1-Air高效模型性能与DeepSeek R1相当但效率高8倍6
2025.07GLM-4.1V视觉-思维(Thinking)模型上线加强推理能力竞争
2025.12开源AutoGLM核心组件进一步开放生态
2026.01港交所IPO正式上市,股票代码2513成为中国首个大模型上市公司,市值2568亿港元2
2026.01唐杰内部信宣布GLM-5即将发布新一代基础模型,冲击全球最强LLM8

二、成长旅程

2.1 怎么找到这个机会的

时代背景(2019-2022)

  • ChatGPT尚未面世(2022.12发布),全球大模型研究方向仍不清晰
  • 中国政策层倾斜与资金充足,但国产大模型严重缺乏
  • Google BERT、T5等基础模型已开源,但超大规模(100B+)模型仍为黑盒

机会空隙识别

  1. 学术→产业的转化通道:清华团队掌握”悟道”等国际前沿研究,可快速对标GPT的能力。这比完全从零开始的公司(如MiniMax)有明显学术加速3

  2. 开源生态的空白:LLaMA仍未开源(2023年2月发布),国内大模型完全闭源。一个开源基座模型能建立社区驱动的护城河——这是豆包(闭源导向)错过的机会。

  3. B端变现路径模糊带来的机会:2022-2023年,业界对大模型变现的理解仍停留在”C端聊天机器人”的假设上。但实际上B端API才是最快的现金流——这个判断让智谱比同行至少早12个月发现PMF。

  4. 学术资源的稀缺性:清华AI Institute和BAAI的联系给智谱提供了持续的人才输送和计算资源,降低了初创期的技术研发风险3

2.2 产品怎么设计的

核心架构:开源+闭源双轨制

智谱采取的不是”开源版本低配,闭源版本高配”的常见套路,而是”入门级 ↔ 生产级”的生态分层:

开源产品线(降低用户启动成本):

  • ChatGLM-6B(2023.03):轻量级开源模型,可本地部署,社区热度爆发(累计5万+star)4
  • ChatGLM-12B/32B(2023下半年):中等规模,平衡性能和推理成本
  • GLM-9B/32B系列(2025年新增):继续扩展开源模型的参数范围1

闭源产品线(承载商业变现):

  • ChatGLM(消费级对话):功能与ChatGPT类似,但定位为”平价国产方案”
  • 智谱清言(C端应用):订阅制应用,配合API提供更丰富的交互
  • GLM-4系列(企业级):包括GLM-4、GLM-4-Plus、GLM-4-Vision、GLM-4-Voice等
  • GLM-4.5系列(2024.10发布):性能接近GPT-4,是核心收入驱动6
  • GLM-4.7(2025.07发布):200K上下文窗口,IFEval指标达88.0,成为开源模型最优选6
  • GLM-Z1-Air / GLM-4-Air(2025.07发布):高效小模型,性能与DeepSeek R1相当但推理速度快8倍7

垂直模型矩阵(差异化竞争):

  • CodeGeeX(代码生成):程序员和开发团队的专用工具,与Intel合作开发AI PC版本9
  • CogVLM(视觉理解):多模态能力,对标GPT-4V,用于设计、电商、内容创作
  • CogVideoX(视频生成):文本→视频,支持10秒高清视频生成,对标Sora9;包含CogVideoX-5B开源版本
  • AutoGLM(自主智能体):可自动操作50+手机应用(微信、淘宝、抖音等),支持20+步骤的多轮推理7
  • GLM-4-Vision(图像理解):多模态对话能力

设计哲学的三个原则

  1. 效率优先,而非参数堆砌:GLM-130B虽然参数规模不是最大(同期已有更大模型),但通过优化架构和训练方法,在同等参数下性能领先。这为后续推出GLM-4等更紧凑的高性能模型奠定了基础。

  2. 多语言双语优化:底层架构针对中英文同时优化,而非通用多语言。这给中国用户明显的体验优势,也是为什么ChatGLM在中文社区热度远高于通用开源模型。

  3. 模型矩阵胜于单一旗舰:不追求”最强通用模型”的名头,而是打造ChatGLM(通用)+ CodeGeeX(代码)+ CogVLM(视觉)+ CogVideoX(视频)的生态。用户因一个垂直模型付费,但被其他模型粘住。

2.3 怎么验证的MVP

最小化可行产品(2022年12月发布):

  1. 基础GLM-130B模型:证明国内团队也能训练出对标GPT-3.5的大模型
  2. ChatGLM对话版本:轻量级交互界面,验证C端市场反馈
  3. 文本交互:暂不支持多模态,降低产品复杂度

用户反馈验证(2022.12-2023.06):

  • 推理速度:满足期望,延迟可接受(对标OpenAI API)
  • 输出质量:接近GPT-3.5,但在某些专业领域(医学、法律)精度不足
  • 开源社区响应:ChatGLM-6B开源后获得超5万+star,远超预期4——这是最关键的PMF信号

关键洞察:开源版本的爆火说明用户最缺的不是”最强的ChatGPT替代品”,而是”能本地跑的、可定制的、社区驱动的大模型”。这个认知驱动了后续的产品方向调整——将资源倾斜到API和垂直模型,而非纯C端消费级竞争。

2.4 怎么切入市场的PMF

PMF寻找过程(2023-2024)

阶段1:开源社区驱动(2023年Q1-Q3)

  • ChatGLM-6B开源,社区贡献数千PR(Lora微调、QLora量化、推理优化等)
  • GitHub生态形成正向循环:用户改进 → 贡献到开源 → 官方反哺闭源版本
  • PMF信号:从开源社区的改进反馈直接迭代商业版本,形成最小摩擦的升级路径

阶段2:B端API商业化突破(2024年Q1-Q3)

核心动作:推出API普惠定价策略

  • 定价策略:主动对标业界最便宜的API(初期甚至贴本)
  • 目标用户:对价格敏感的创业公司、中小企业、教育机构
  • 销售模式:零销售成本(开发者自助购买)vs.豆包和通义的企业销售模式

关键数据(2024):

  • API年收入增长30倍1
  • 日均Token消耗增长150倍1
  • 企业客户突破8000+家5

PMF达成标志

  1. MaaS平台月收入稳定增长,无须融资支撑
  2. 客户续费率>90%,黏性极高
  3. API成为最主要收入来源(2025年H1占比超70%预估)

阶段3:多模态+垂直化扩展(2024.05-2025)

  • CogVLM(图像理解):客户愿意为垂直领域模型付溢价
  • CodeGeeX(代码助手):程序员用户的差异化付费意愿高
  • CogVideoX(视频生成):新的收入增长点,吸引创意类客户
  • AutoGLM(自主智能体):支持RPA类应用,进入企业自动化市场

PMF本质总结

智谱找到的是**“B端API是中国大模型最快变现路径”**这一关键洞察。这与国内市场特点密不可分:

  • 中国企业对成本敏感,对开源友好
  • B端客户更在乎ROI而非品牌
  • API即插即用的商业模式减少了销售成本

相比之下:

  • 豆包陷入了”通过内容创作吸引用户”的C端模式,变现困难
  • 元宝依赖微信生态但支付激活率低
  • 通义千问走的是企业销售+定制路线,效率不如API普惠模式

2.5 增长引擎

四大增长引擎(2024-2026)

1. B端API爆发式增长

动力:

  • 企业客户寻求比OpenAI API便宜的替代方案(OpenAI API价格高3-5倍)
  • 国家政策倾斜(优先采购国产模型)
  • 大模型应用成熟(RAG、Agent等标准化方案出现,API使用量激增)

结果:

  • 日均Token消耗从0→150倍增长(2024)→2025年付费Tokens再增长50倍5
  • 企业客户从0→8000+家5
  • 用户类型:FinTech、教育、电商、SaaS、企业服务等

2. 开源社区网络效应

机制:

  • 社区开发者贡献垂直领域应用(量化交易、医学AI、法律AI等)
  • 反哺商业版本的优化
  • 形成滚雪球效应:开源版本用户数↑ → 付费转化率↑ → 研发投入↑ → 开源版本更优↑

指标:

  • ChatGLM GitHub累计获赞超10万(截至2025年)
  • 社区实现了Lora、QLora、GPTQ等优化,降低了用户部署门槛

3. 垂直模型矩阵化交叉转化

结构:

  • CodeGeeX用户:程序员和开发团队 → 付费转化→ 也使用GLM-4/ChatGLM
  • CogVLM用户:设计师、电商运营、内容创作者 → 发现ChatGLM的文本能力
  • CogVideoX用户:短视频创作者、广告公司 → 学习其他模型组合方案

交叉转化的关键是API+垂直模型的套装销售——企业客户为一个垂直模型付费,却被整个GLM生态留住。

4. 融资与品牌认可的正向循环

时间线:

  • 2024年Q4:融资30亿元,估值提升至200亿+
  • 2025年Q1:追加融资18亿元,估值达243.8亿元2
  • 2025年Q2-Q3:IPO融资52.3亿港元
  • 2026年Q1:上市后估值飙升至2568亿港元2

品牌效应:

  • IPO前融资创造了”大模型独角兽”的投资叙事
  • IPO后市值飙升给予高估值的投资信心
  • 头部企业客户因”国企认可”增加采购意愿(政府国资参与IPO)

增长关键指标总览

指标2022202320242025H1增长倍数
年收入5740万1.245亿3.124亿1.91亿33倍(2022-2025H1)
同比增速-116%151%325%平均增速>100%
API收入未统计未统计激增(30倍)占比>70%-
企业客户未统计未统计数千家8000+-
付费用户未统计未统计未统计22万-
ARR未统计未统计预计1-2亿超4亿双倍增长

2.6 商业变现路径

四层变现系统(已全面验证)

第1层:API按量计费(最核心,核心引擎)

商业模式:

  • 价格策略:中国大模型中最便宜的API(输入0.005元/1K tokens,输出0.01元/1K tokens10
  • 目标用户:创业公司、中小企业、开发者、教育机构
  • 销售渠道:零销售成本,开发者自助购买(https://open.bigmodel.cn)

客户粘性机制:

数据验证:

  • 2024年API年收入同比增长30倍1
  • API毛利率约60%+(预估,接近云计算毛利水平)
  • 2025年H1 API毛利率为-0.4%,说明仍在成本补贴阶段5

第2层:智谱清言订阅(辅助,品牌建设)

商业模式:

  • 模式:C端订阅制,类似ChatGPT Plus
  • 定价:19.9元/月(对标竞品同价)1
  • 用户群:个人开发者、内容创作者、学生

使用数据:

  • 活跃用户超300万5
  • 付费用户22万5
  • 付费转化率≈7%(高于行业平均3-5%)

战略价值:

  • 虽然收入占比相对较小(预估<20%),但为B端API客户提供了”升级路径”
  • 作为品牌触点,提升消费者认知

第3层:企业定制化服务(高毛利,垂直行业)

商业模式:

  • 目标:金融、医疗、法律等垂直行业
  • 服务内容:模型微调、私有部署、安全审计、行业知识库构建
  • 定价:按项目报价,年费通常50万-500万元范围

特点:

  • 毛利率高(70%+预估)
  • 但需要专业销售和技术支持,不可完全自动化
  • 客户数量有限(预计占比10-15%)

第4层:垂直模型许可与API(增长最快)

商业模式:

  • CodeGeeX企业版:按座位数或API调用量收费
  • CogVLM专业版:图像理解API,按图片数量计费
  • CogVideoX生成API:按视频生成次数计费
  • AutoGLM商业版:自主智能体部署,按流程自动化数量计费

数据:

  • 垂直模型API收入占比仍较小(<15%预估),但增长最快
  • CogVideoX作为2024年新产品,有望在2025-2026成为新的增长极

变现强势点总结

  1. 距钱最近:B端API客户可立即产生现金流,无需长期销售周期(对标:豆包/元宝需要6-12个月的销售周期)

  2. 规模化天生设计:API可无限扩展,无产品或运力天花板(对标:企业定制服务有交付能力约束)

  3. 可持续性强

    • 客户粘性极高(续费率>90%)
    • 网络效应强(使用量↑ → 依赖度↑ → 切换成本↑)
    • 毛利率逐年提升(当前贴本 → 2026年目标20%+ 毛利)5
  4. 多渠道收入:API + 订阅 + 垂直模型许可 + 企业定制,形成收入多元化,降低单点风险

2.7 竞争壁垒

已形成的壁垒(强度评分)

1. 开源社区粘性(强度:9/10)

构成:

  • ChatGLM累计获赞10万+,社区实现了数千个PR贡献
  • Lora、QLora、GPTQ等优化由社区驱动,形成了不可复制的知识积累
  • 社区成员成为最好的营销渠道最忠实的客户

难以复制的原因:

风险:

  • 如果技术停滞(新版本不再领先),社区会快速迁移(已有案例:LLaMA 2发布后社区从Alpaca转向LLaMA)

2. B端API客户锁定(强度:8/10)

机制:

  • 一旦企业在生产环境中使用智谱API,切换成本极高(代码改造、重新测试、业务中断风险)
  • API调用价格便宜,但切换成本远高于价格差异(预估切换成本:500小时-3000小时工程工作量)

数据支撑:

  • 当前API毛利率-0.4%,说明公司愿意长期贴本保持用户粘性5
  • 企业客户数稳定增长(数千→8000+),流失率推测<10%

风险:

3. 学术+产业结合(强度:7/10)

优势:

  • 清华AI Institute + Zhipu的合作关系给了持续的研究输出人才渠道
  • 唐杰等创始人的学术地位,使得Zhipu能招聘到最顶级的AI研究者
  • 研发速度快:GLM-4 → GLM-4.5 → GLM-4.7 → GLM-5的迭代周期仅6-12个月,对标OpenAI

难以复制:

  • 大多数创业公司无法与清华建立同等深度的合作

风险:

  • 学术优势可能被巨头的资源优势抵消(谷歌、OpenAI、Meta都是学术+资本的结合体)
  • 如果清华对Zhipu的支持减弱(政策变化、股权变动等),这个优势会消退

4. 垂直领域差异化(强度:6/10)

差异化点:

  • CodeGeeX:在代码生成领域有独特优势,但面临GitHub Copilot(OpenAI)的竞争
  • CogVLM:多模态能力强,但GPT-4V已成为事实标准
  • CogVideoX:视频生成是新赛道,暂时领先,但Sora一旦普及就会被压制
  • AutoGLM:自主智能体领域还很新,Zhipu率先布局,但OpenAI o1、Claude正在追赶

难以复制:

  • 垂直模型需要特定领域的数据和专业知识,积累时间较长
  • Zhipu的多模型矩阵形成了系统性优势,单个竞争对手很难同时追上所有垂直领域

风险:

  • 各个击破:如果OpenAI、DeepSeek等针对单个垂直领域推出专家模型,Zhipu的优势会被蚕食

三、战略框架

3.1 产业分层位置

大模型产业三层结构

┌─────────────────────────────────────────────┐
│          应用层(垂直应用、企业服务)         │
│   豆包/元宝(C端)  │  Zhipu/通义(B端+垂直)    │
├─────────────────────────────────────────────┤
│      平台层(MaaS、API、开源生态)            │
│  OpenAI(闭源API) │ Zhipu(API+开源双轨)      │
│  Anthropic       │ 通义(API+企业部署)       │
├─────────────────────────────────────────────┤
│    基础层(基础大模型、参数优化)              │
│  GPT-4 / Claude  │ GLM-4 / Qwen / ChatGPT  │
│  DeepSeek R1     │ Llama3.1                │
└─────────────────────────────────────────────┘

智谱的位置

  • 主营阵地:平台层(API + 开源)
  • 拓展方向:应用层(垂直模型 + 企业定制)
  • 技术基础:基础层(自研GLM系列)

这个位置是最具现金流的——距钱最近的位置。相比C端消费级应用(豆包),Zhipu的B端模式天生变现能力强。

3.2 距钱距离分析

中国大模型公司的距钱距离排序

公司主要产品形态距钱距离实现周期变现难度当前现金流
智谱AIAPI + 垂直模型最短1-3个月3.124亿/年(2024)
通义千问企业API + 应用3-6个月低-中数亿预估
豆包C端聊天 + 内容6-12个月预估不足1亿
元宝微信生态最长12-24个月最高接近0
MiniMaxAPI + 垂直模型最短1-3个月预估<1亿

智谱的距钱距离优势来自三个因素:

  1. 即插即用的商业模式:开发者注册 → 充值 → 调用API → 实时计费,整个流程<1小时
  2. 低销售成本:不需要专业销售团队,开发者自助购买(获客成本<豆包的1/10)
  3. 高粘性:一旦API集成进系统,客户续费率>90%

3.3 定价象限分析

大模型API定价矩阵(2025年)

                    价格低 ←─────────→ 价格高
           ┌──────────────────────────────┐
           │  DeepSeek R1        │GPT-4o   │
 品质高    │  (高性价比)         │(高端)   │
           │  Zhipu GLM-4.7      │Claude3.5│
           │  (平衡型)           │          │
├───────────┼──────────────────────────────┤
 品质低    │  Zhipu GLM-4-Air    │通义-通用 │
           │  (超便宜)           │(溢价)    │
           └──────────────────────────────┘

智谱的定位

  • 主力型号GLM-4/4.5:价格低于GPT-4o但性能接近 → 性价比象限
  • 高端型号GLM-4-Plus:对标GPT-4-Turbo,定价更便宜 → 溢价逆转
  • 高效型号GLM-4-Air:对标GPT-4-mini,价格远低 → 超便宜象限

定价策略的本质

  • 薄利多销优于高价少量
  • 通过低价获取用户 → 通过垂直模型(CodeGeeX/CogVLM)提升单客价值 → 整体LTV提升
  • 这与AWS的”低价抢占市场”策略一致,是云计算时代的标准玩法

3.4 反脆弱评估

反脆弱能力(面对竞争与黑天鹅)

强抵抗力(杠铃策略)

  1. 开源+闭源双轨黑天鹅保险

    • 场景1:如果豆包/通义大幅降价,Zhipu的开源版本仍有市场
    • 场景2:如果政策限制闭源模型,Zhipu可转向开源许可商业化
    • 评分:8/10(成功的双轨战略)
  2. B端多客户结构分散风险

    • 8000+企业客户,单客占比<2%
    • 金融、教育、电商、SaaS等多行业覆盖
    • 单个行业政策风险不会致命
    • 评分:7/10(已初步分散)
  3. 垂直模型矩阵多条腿走路

    • ChatGLM、CodeGeeX、CogVLM、CogVideoX、AutoGLM形成了产品护城河
    • 单个模型被压制,其他模型仍有收入
    • 评分:7/10(矩阵初步形成)

弱抵抗力(脆弱点)

  1. C端认知薄弱品牌脆弱

    • 大众对”智谱”知名度远低于”豆包”
    • IPO后虽然品牌提升,但C端用户仍未充分激活
    • 评分:3/10(高风险)
    • 对策:依靠B端业务增长,不过度依赖C端
  2. 盈利压力大财务脆弱

    • 当前API毛利率-0.4%,仍在烧钱阶段5
    • IPO后需要快速扭亏为盈,市场容忍度有限
    • 评分:4/10(中风险)
    • 对策:通过垂直模型提升单客价值,改善毛利率
  3. 政策不确定性制度脆弱

    • 大模型的内容安全审查存在政策变动风险
    • 如果政策收紧,可能影响API规模化商业化
    • 评分:5/10(中高风险)
    • 对策:积极与监管部门沟通,保持政策合规

四、蓝图复刻

4.1 最值得学的创新

创新1:开源+闭源双轨制

本质:开源吸引社区 → 社区驱动优化 → 反哺闭源版本 → 形成不对称竞争优势

标准做法 vs. 智谱做法

标准做法:
ChatGPT(闭源) → vs <- LLaMA(开源)
结果:相互压制,市场二元论

智谱做法:
ChatGLM(闭源API) ←→ ChatGLM-6B(开源)
结果:形成闭环,相互促进

具体实现

  • 开源版本(ChatGLM-6B)定位为”入门级”,降低用户学习成本
  • 闭源版本(GLM-4系列)定位为”生产级”,承载商业收入
  • 关键:版本之间有明显的能力差异(6B vs. 130B),用户自然会升级

启示


创新2:B端API普惠定价

本质:主动降价 → 薄利多销 → 规模化覆盖 → 成本下降 → 利润提升

定价逻辑

传统软件:
定价高 → 销量少 → 利润高但增长慢

大模型API:
定价低 → 销量多 → 快速占领市场 → 成本下降(规模效应) → 利润反而更高

关键数据支撑

  • 当前:API调用量激增(日均Token增长150倍),但毛利率-0.4%
  • 未来:预计2026年API毛利率达20%+(规模带来的成本优化)

启示


创新3:垂直模型矩阵快速扩展

本质:不做”最强的通用模型”,而做”最全的垂直模型组合”

对标

  • OpenAI:只有ChatGPT(通用)+ GPT-4V(多模态)
  • 谷歌:Bard(通用) + MusicLM(音乐) + ImageGen(图像)
  • Zhipu:ChatGLM(通用) + CodeGeeX(代码) + CogVLM(视觉) + CogVideoX(视频) + AutoGLM(智能体)

快速扩展的秘诀

  1. 基础模型复用:所有垂直模型都基于GLM架构,减少重复开发
  2. 开源驱动迭代:CogVLM、CogVideoX都有开源版本,社区优化反哺商业版
  3. 小模型先行:2B、5B的CogVideoX开源版先发布,验证市场 → 再推企业版API

启示

  • 平台化思维单一爆品更具防守能力
  • 一个模型被压制,其他模型仍有收入
  • 垂直模型的溢价能力强(企业愿意为专业模型付更高价格)

4.2 战术剧本

剧本1:B端API商业化的完整路线

Phase 1(3-6个月):破冰期
├─ 推出平价API(对标最便宜竞争对手)
├─ 建立自助购买体系(降低销售成本)
├─ 建立开发者社区(GitHub/微信群/论坛)
└─ 目标:获得前1000个付费客户

Phase 2(6-12个月):规模化期
├─ 优化API稳定性和推理速度(客户满意度>90%)
├─ 推出行业解决方案(金融、教育、电商模板)
├─ 建立企业客户成功团队(减少流失)
└─ 目标:10000+付费客户,日均调用量突破X亿

Phase 3(12-24个月):垂直化期
├─ 推出行业垂直模型(CodeGeeX for 金融、CogVLM for 电商)
├─ 垂直模型定价溢价50-100%(提升客户单价)
├─ 组建企业定制团队(高价值客户)
└─ 目标:单客ARPU提升3倍,毛利率达15%

Phase 4(24+个月):融资与IPO
├─ 发起融资,讲述"B端API规模化"故事
├─ 上市前财报秀出"高增长"(100%+)
├─ 上市后通过品牌建设获取C端用户
└─ 目标:市值>500亿,成为大模型上市第一股

剧本2:开源社区驱动增长

Step 1:选择合适的参数规模
├─ 太小(3B以下):无法展示能力
├─ 合适(6B-32B):可本地跑,又有竞争力
└─ 太大(100B+):无法本地部署

Step 2:激励社区贡献
├─ GitHub issue & discussion活跃回复
├─ 社区优化代码接收(Lora、QLora、推理优化)
├─ 举办竞赛(微调、应用开发)
└─ 优秀贡献者推送至官方渠道

Step 3:反哺闭源版本
├─ 社区的Lora微调 → 融合进官方版本
├─ 社区的推理优化 → 应用进API服务
├─ 社区反馈的BUG → 优先修复
└─ 结果:开源版本 = 最好的质量反馈来源

Step 4:转化为商业化
├─ 开源版本用户注册自助平台
├─ 提供付费API升级(性能、功能更多)
├─ 企业定制基于开源版本的微调
└─ 结果:开源社区 = 最便宜的获客渠道

4.3 反面教材

教材1:“C端梦”拖累融资进度

现象

  • 智谱清言虽有300万活跃用户,但DAU远低于豆包(1000万+)和元宝(500万+)
  • 融资路演中,投资方多次问”为什么C端打不过豆包”
  • 公司被迫投入更多资源到C端产品,以满足融资叙事需求

本质问题

  • 不该参加的竞争:C端聊天应用的竞争对象是豆包、元宝,而不是OpenAI
  • 资源错配:用于C端的资源本应用于B端API优化,反而拖累了核心业务
  • 融资叙事过度:为了讲”更全能”的故事而伤害了”最专精”的定位

吸取教训


教材2:“API价格战”的陷阱

现象

  • Zhipu通过最低价格抢占市场,日均Token增长150倍
  • 但API毛利率仍为-0.4%,公司在贴本运营5

潜在风险

吸取教训


4.4 三个核心启示

启示1:B端变现 > C端变现(在大模型领域)

数据对比

  • B端:企业客户有明确的ROI计算,购买力强,续费率>90%,平均合同期1年+
  • C端:用户为免费版本付费意愿仅3-5%,留存率低,平均订阅周期<3个月

Zhipu的验证

  • B端API收入(2024):激增30倍,占比>70%
  • C端订阅(2024):用户300万,付费仅22万(转化率7%),收入占比<20%

创业启示


启示2:开源是最好的营销

Zhipu的成功验证

  • ChatGLM-6B开源后,获得5万+star(相当于百万级品牌曝光)
  • 社区评价远好于付费竞品,形成了自传播效应
  • 开源版本的用户 → 升级到付费版本,获客成本接近0

对标分析

  • Meta LLaMA:通过开源建立社区,反过来威胁OpenAI的市场位置
  • Google T5:开源T5模型,吸引无数研究者,推动生态建立

创业启示


启示3:模型矩阵 > 单一旗舰

Zhipu的多模型策略

ChatGLM + CodeGeeX + CogVLM + CogVideoX + AutoGLM
  ↓        ↓         ↓        ↓          ↓
通用对话   代码生成  视觉理解  视频生成   智能体
  ↓        ↓         ↓        ↓          ↓
所有企业   程序员    设计师    创意团队   自动化部门
  ↓────────┴─────────┴────────┴─────────┘
        单个用户被粘住在生态中

优势

  • 用户为一个垂直模型付费,却被整个生态留住
  • 单个模型被压制(例如ChatGLM被GPT-4击败),其他模型(CodeGeeX)仍有收入
  • 交叉转化:CodeGeeX用户发现ChatGLM性能接近GPT-3.5,愿意替换API供应商

对标

  • OpenAI:单一ChatGPT + Codex,缺乏多元化
  • Google:Bard(通用) + MusicLM(音乐) + ImageGen(图像),但各自独立

创业启示


五、战略框架与定位

5.1 产业分层解读

大模型产业的关键发现:中国市场与全球市场的分化

全球格局(以OpenAI为中心):

  • 基础层:GPT-4(最强通用)
  • 平台层:ChatGPT API(事实标准)
  • 应用层:Copilot、Canvas等集成应用

中国格局(多方割据):

  • 基础层:GLM-4.7、Qwen 32B、DeepSeek R1等多个选择
  • 平台层:API本地化部署 并行,没有单一标准
  • 应用层:豆包(内容创作)、元宝(微信)、智谱清言(通用)各有侧重

Zhipu的位置

战略意义


5.2 竞争地位矩阵

基于距钱距离 × 技术深度的竞争地位

                    技术深度高 ←──────→ 技术深度低
             ┌──────────────────────────────┐
距钱      │ OpenAI      │ MiniMax   │Anthropic
最近      │ (API强)     │ (API强)   │(技术强)
          │ Zhipu       │ 通义      │
距钱      │ (双轨优)    │(企业部署) │
较远      ├──────────────────────────────┤
距钱      │ 豆包        │ Moonshot  │ Google AI│
最远      │ (C端内容)   │ (微信)    │ (基础)   │
          │ 元宝        │           │          │
          └──────────────────────────────┘

Zhipu的位置分析

  • 纵坐标(距钱距离):次短(仅次于MiniMax的API),超越通义的企业部署,远胜豆包/元宝的C端模式
  • 横坐标(技术深度):顶级(清华系背景,持续产出新模型),仅次于OpenAI/Anthropic

结论:Zhipu占据了最优的象限——既有强技术,又有近的变现路径。


六、Mars视角

这是一家被低估的公司,却被自己的叙事混乱所伤害。

核心观察

表面成就

  • 融资充足(83.6亿元)✓
  • 上市成功(2568亿港元市值)✓
  • 企业客户众多(8000+)✓
  • API收入激增(30倍增速)✓

隐藏的问题

  1. 配置论弱点:C端认知远低于B端实力

    • B端:API年收入3.124亿,用户粘性极高
    • C端:智谱清言虽有300万用户,但DAU不足豆包的5%,付费率仅7%
    • 融资时被迫标榜”C端用户数百万”来对标豆包的”亿级”,显得有些虚弱
  2. 盈利悖论:规模增长,利润反向

    • API日均Token增长150倍,但毛利率-0.4%5
    • 这说明:增速快 ≠ 赚钱快
    • 如果不能通过垂直模型(高毛利)和企业定制来提升,2026年可能陷入亏损漩涡
  3. 融资依赖度高:从造血到烧钱

    • 2024年融资30+亿元
    • 2025年再融资18+亿元
    • IPO融资52.3亿港元
    • 总共融资超200亿,仍未实现正毛利
    • 这对于一家声称已实现变现的公司来说,是警信号

三个核心洞察

洞察1:B端变现的”距钱最近”悖论

表面逻辑

  • B端客户有ROI计算 → 购买力强 → 变现快
  • API即插即用 → 销售成本低 → 获客效率高

隐藏的陷阱

正确的姿态


洞察2:开源社区是唯一不可复制的护城河

可以被复制的

  • 技术:DeepSeek、通义也能达到GLM-4.7的水平
  • 融资:字节、阿里有更强的融资能力
  • 人才:任何公司都能挖顶级研究者
  • 基础设施:谷歌、微软的芯片支持力度更大

不能被快速复制的

  • ChatGLM社区的历史沉淀:5万+star,数千个社区贡献,建立了事实标准
  • 社区成员的心理认同:已经在ChatGLM上进行的垂直开发无法迁移
  • 网络效应的不可逆性:一旦社区规模达到临界点,新的开源模型很难吸引同等人气

关键行动

  • Zhipu应该持续投入开源,而非分心做C端产品
  • 开源是Zhipu对抗巨头的唯一武器
  • 如果开源社区衰退,Zhipu就变成了”融资充足的小公司”

洞察3:IPO改变了游戏规则,但没改变困境

IPO带来的变化

  • 估值从243.8亿飙升到2568亿港元(10倍增长)2
  • 品牌认知大幅提升(成为”中国首个大模型上市公司”)
  • 融资能力大幅增强(融资52.3亿港元)

IPO没解决的问题

对Zhipu管理层的建议


最后的判断

Zhipu的本质

最可能的未来(2026-2027)**:

乐观预期

  • 垂直模型(CodeGeeX、CogVideoX)商业化成功
  • API毛利率从-0.4% → 15%-20%
  • 成为被低估的大模型上市公司(因为盈利能力被低估)
  • 2027年股价翻倍

悲观预期

  • 垂直模型商业化不力
  • 陷入API价格战的泥沼,融资烧钱无法自我造血
  • IPO成为融资陷阱而非加速器
  • 成为”估值虚高的融资机器”

中位预期(最可能发生)**:

AI 草稿——待 Mars 确认


相关案例

6.1 与其他大模型的对比学习

Case 1:Zhipu vs 豆包

  • Zhipu:B端API > C端应用,变现能力强但品牌弱
  • 豆包:C端应用 > B端API,品牌强但变现困难
  • 启示:选择正确的主阵地比全面覆盖更重要

Case 2:Zhipu vs 通义千问

  • Zhipu:开源+闭源双轨,社区生态强
  • 通义:企业部署+API并行,企业级深度强
  • 启示:两种模式都可行,关键是专注度

Case 3:Zhipu vs OpenAI

  • Zhipu:融资驱动的增长,API毛利率负
  • OpenAI:产品驱动的增长,API毛利率高
  • 启示:融资快 ≠ 盈利快,需要真正的PMF

6.2 大模型商业化的通用规律

规律1:距钱距离 = 变现速度

  • API(距钱最近):1-3个月现金流
  • 企业定制(距钱较近):3-6个月
  • C端订阅(距钱较远):6-12个月

规律2:开源是营销,不是产品

规律3:垂直模型的溢价能力强于通用模型

  • 通用模型:价格竞争,毛利率低
  • 垂直模型:功能竞争,毛利率高

看完后推荐

时间线

时间事件影响
2019.04公司成立创业启动
2021参与”悟道”项目掌握超大规模模型训练经验
2022.12GLM-130B + ChatGLM发布产品化首秀
2023.03ChatGLM-6B开源社区驱动增长启动
2023.06ChatGLM-12B/32B开源参数规模扩展
2024.05GLM-4、CodeGeeX、CogVLM发布垂直化矩阵成型
2024.08API规模化商业化启动收入激增30倍
2024.10GLM-4.5发布性能对标GPT-4
2024.12AutoGLM开源发布进入agent领域
2025.04启动IPO流程上市计划公布
2025.07GLM-4.5 Air、GLM-Z1-Air发布高效模型推出
2025.12AutoGLM核心组件开源生态进一步开放
2026.01港交所IPO上市(股票代码2513)成为”大模型第一股”
2026.01宣布GLM-5即将发布新一代基础模型
2026.03+预期发布GLM-5、垂直模型API优化商业化第二阶段

参考来源

  1. 量子位:火线解析智谱AI招股书
  2. 智源社区:智谱定档大模型第一股
  3. 智谱AI官网
  4. Yahoo Finance:中国创业公司Zhipu和MiniMax发布最新AI模型
  5. TechNode:Zhipu AI开源AutoGLM
  6. ChatGLM GitHub仓库
  7. Zhipu AI开放平台
  8. CogVideoX GitHub

更新日志

日期更新内容版本
2025-03-16初版卡片(基于IPO前数据)v0.1
2026-01-10补充IPO数据、市值更新v1.0
2026-02-27新增企业客户数量、ARR、付费用户等数据v2.0
2026-03-17v4.0模板重写,补充AutoGLM、GLM-4.5/4.7信息,Mars视角分析v4.0

脚注与引用

Footnotes

  1. ChatGPT发布前两年,抢占大模型创业风口;API日均消耗量增长150倍,收入激增30倍(来源:原文档) 2 3 4 5 6 7

  2. 2026年1月8日港交所上市,募资52.3亿港元,市值约2568亿港元(来源:Yahoo Finance 2 3 4 5 6

  3. 唐杰是IEEE/ACM/AAAI Fellow,曾主导开发1.75万亿参数的”悟道”模型(来源:Zhipu官网 2 3 4

  4. ChatGLM-6B开源后获得5万+star,社区贡献数千PR(来源:ChatGLM GitHub 2 3

  5. 企业客户8000+,ARR超4亿元,付费用户22万,付费Tokens增长50倍(来源:36氪 2 3 4 5 6 7 8 9 10 11 12

  6. GLM-4.5发布于2024.10,GLM-4.7发布于2025.07,GLM-5即将发布(来源:Zhipu新闻 2 3 4

  7. AutoGLM支持50+应用自动化,GLM-Z1-Air性能与DeepSeek R1相当但推理快8倍(来源:TechNode 2 3

  8. 2026年1月8日IPO上市当日,唐杰内部信宣布GLM-5即将发布(来源:新闻报道

  9. CodeGeeX与Intel合作开发AI PC版本,CogVideoX支持5B开源版本(来源:GitHub官方文档 2

  10. Zhipu API定价为中国最便宜(来源:智谱开放平台