快速了解
Zhipu AI / ChatGLM · 基础层 + 应用层 · 北京 · Listed 243.8亿元人民币(IPO前,2025年3月);2026年1月上市后市值约2568亿港元 估值 · 超4亿元(2025年H1) ARR · 企业用户8000+;C端活跃用户300万;付费用户22万 用户 竞品:通义千问(阿里) · 豆包(字节跳动) · MiniMax
一句话定位
清华系大模型独角兽,通过开源+闭源双轨战略和B端API普惠定价快速占领企业市场,成为中国首个大模型上市公司(2026年1月港交所IPO,市值2568亿港元),B端变现能力国内最强12。
基本面表
| 维度 | 数据 | 来源 |
|---|---|---|
| 成立时间 | 2019年4月15日 | Zhipu AI官网 |
| 创始人 | 唐杰(清华PhD,IEEE Fellow)、李卷子(清华教授) | Zhipu AI官网 |
| 总融资额 | 超83.6亿元人民币(8轮) | Yahoo Finance |
| IPO信息 | 2026年1月8日港交所上市(股票代码:2513),发行价116.2港元/股 | 量子位 |
| 上市融资 | 募资52.3亿港元 | 量子位 |
| 当前市值 | 约2568亿港元(2026年2月27日) | Yahoo Finance |
| 2022年收入 | 5740万元 | 量子位 |
| 2023年收入 | 1.245亿元(同比+116%) | 量子位 |
| 2024年收入 | 3.124亿元(同比+151%) | 量子位 |
| 2025年H1收入 | 1.91亿元(同比+325%) | 量子位 |
| 当前ARR | 超4亿元(2025年H1) | 36氪 |
| 企业客户数 | 8000+家机构 | 36氪 |
| 付费用户 | 22万(2025年) | 36氪 |
| 活跃用户 | 300万+ | 36氪 |
| 核心产品 | ChatGLM、GLM系列、智谱清言、CodeGeeX、CogVLM、CogVideoX、AutoGLM | 官方文档 |
| API年收入增速 | 2024年同比增长30倍 | 原文档 |
| 日均Token增长 | 2024年增长150倍 | 原文档 |
| Tokens付费增速 | 2025年付费Tokens增长50倍 | 36氪 |
一、发展脉络与创始人基因
创始人背景与学术积累
唐杰(Tang Jie):清华大学计算机科学与技术系教授,是Zhipu AI的创始人兼首席科学官。唐杰是IEEE、ACM、AAAI Fellow,曾在北京智源人工智能研究院(BAAI)担任要职,主导开发了2021年推出的”悟道”(Wu Dao)模型——当时全球最大的大模型,参数规模达1.75万亿3。他将悟道的研究成果转化到Zhipu中,为公司奠定了坚实的学术基础。
李卷子(Li Juanzi):清华大学计算机科学与技术系教授,Zhipu AI的联合创始人兼董事长。李卷子在知识图谱和知识表示学习领域有深厚造诣,是Zhipu早期的技术方向指引者3。
基因构成:智谱AI的核心优势来自清华大学计算机系的顶级人才聚集、国家高端AI研究资源的支撑,以及这两位创始人在全球AI前沿研究中积累的技术底蕴。这使得公司在成立时就站在了大模型研究的最前沿。
关键发展脉络
| 时间 | 重要事件 | 战略意义 |
|---|---|---|
| 2019.04 | 公司成立,从清华AI研究院孵化 | ChatGPT发布前两年,抢占大模型创业风口 |
| 2021.06 | 参与开发”悟道”1.75万亿参数大模型 | 掌握全球最先进的大模型研究成果 |
| 2022.12 | 发布GLM-130B + ChatGLM(文本版) | 国产大模型代表作,开源+闭源双轨启动4 |
| 2023.03 | 开源ChatGLM-6B,GitHub热度突破5万+star | 开源社区驱动增长的关键拐点 |
| 2023-2024 | 融资加速,8轮融资累计83.6亿元 | 投资方包括阿里、腾讯、蚂蚁、美团、小米等头部机构5 |
| 2024.05 | 发布GLM-4、CodeGeeX、CogVLM完整矩阵 | 从单一模型向多模态、垂直化转型 |
| 2024.08 | API规模化商业化启动 | 日均Token消耗增长150倍,收入激增1 |
| 2024.10 | GLM-4.5发布,性能对标GPT-4 | 在Chatbot Arena排名持续提升6 |
| 2024.12 | 推出AutoGLM自主智能体,支持50+应用自动化 | 进入agent赛道,对标OpenAI o17 |
| 2025.04 | 启动IPO流程,融资48亿元 | 估值升至243.8亿元,冲刺”大模型第一股”2 |
| 2025.07 | 发布GLM-4.5 Air、GLM-Z1-Air高效模型 | 性能与DeepSeek R1相当但效率高8倍6 |
| 2025.07 | GLM-4.1V视觉-思维(Thinking)模型上线 | 加强推理能力竞争 |
| 2025.12 | 开源AutoGLM核心组件 | 进一步开放生态 |
| 2026.01 | 港交所IPO正式上市,股票代码2513 | 成为中国首个大模型上市公司,市值2568亿港元2 |
| 2026.01 | 唐杰内部信宣布GLM-5即将发布 | 新一代基础模型,冲击全球最强LLM8 |
二、成长旅程
2.1 怎么找到这个机会的
时代背景(2019-2022):
- ChatGPT尚未面世(2022.12发布),全球大模型研究方向仍不清晰
- 中国政策层倾斜与资金充足,但国产大模型严重缺乏
- Google BERT、T5等基础模型已开源,但超大规模(100B+)模型仍为黑盒
机会空隙识别:
-
学术→产业的转化通道:清华团队掌握”悟道”等国际前沿研究,可快速对标GPT的能力。这比完全从零开始的公司(如MiniMax)有明显学术加速3。
-
开源生态的空白:LLaMA仍未开源(2023年2月发布),国内大模型完全闭源。一个开源基座模型能建立社区驱动的护城河——这是豆包(闭源导向)错过的机会。
-
B端变现路径模糊带来的机会:2022-2023年,业界对大模型变现的理解仍停留在”C端聊天机器人”的假设上。但实际上B端API才是最快的现金流——这个判断让智谱比同行至少早12个月发现PMF。
-
学术资源的稀缺性:清华AI Institute和BAAI的联系给智谱提供了持续的人才输送和计算资源,降低了初创期的技术研发风险3。
2.2 产品怎么设计的
核心架构:开源+闭源双轨制
智谱采取的不是”开源版本低配,闭源版本高配”的常见套路,而是”入门级 ↔ 生产级”的生态分层:
开源产品线(降低用户启动成本):
- ChatGLM-6B(2023.03):轻量级开源模型,可本地部署,社区热度爆发(累计5万+star)4
- ChatGLM-12B/32B(2023下半年):中等规模,平衡性能和推理成本
- GLM-9B/32B系列(2025年新增):继续扩展开源模型的参数范围1
闭源产品线(承载商业变现):
- ChatGLM(消费级对话):功能与ChatGPT类似,但定位为”平价国产方案”
- 智谱清言(C端应用):订阅制应用,配合API提供更丰富的交互
- GLM-4系列(企业级):包括GLM-4、GLM-4-Plus、GLM-4-Vision、GLM-4-Voice等
- GLM-4.5系列(2024.10发布):性能接近GPT-4,是核心收入驱动6
- GLM-4.7(2025.07发布):200K上下文窗口,IFEval指标达88.0,成为开源模型最优选6
- GLM-Z1-Air / GLM-4-Air(2025.07发布):高效小模型,性能与DeepSeek R1相当但推理速度快8倍7
垂直模型矩阵(差异化竞争):
- CodeGeeX(代码生成):程序员和开发团队的专用工具,与Intel合作开发AI PC版本9
- CogVLM(视觉理解):多模态能力,对标GPT-4V,用于设计、电商、内容创作
- CogVideoX(视频生成):文本→视频,支持10秒高清视频生成,对标Sora9;包含CogVideoX-5B开源版本
- AutoGLM(自主智能体):可自动操作50+手机应用(微信、淘宝、抖音等),支持20+步骤的多轮推理7
- GLM-4-Vision(图像理解):多模态对话能力
设计哲学的三个原则:
-
效率优先,而非参数堆砌:GLM-130B虽然参数规模不是最大(同期已有更大模型),但通过优化架构和训练方法,在同等参数下性能领先。这为后续推出GLM-4等更紧凑的高性能模型奠定了基础。
-
多语言双语优化:底层架构针对中英文同时优化,而非通用多语言。这给中国用户明显的体验优势,也是为什么ChatGLM在中文社区热度远高于通用开源模型。
-
模型矩阵胜于单一旗舰:不追求”最强通用模型”的名头,而是打造ChatGLM(通用)+ CodeGeeX(代码)+ CogVLM(视觉)+ CogVideoX(视频)的生态。用户因一个垂直模型付费,但被其他模型粘住。
2.3 怎么验证的MVP
最小化可行产品(2022年12月发布):
- 基础GLM-130B模型:证明国内团队也能训练出对标GPT-3.5的大模型
- ChatGLM对话版本:轻量级交互界面,验证C端市场反馈
- 文本交互:暂不支持多模态,降低产品复杂度
用户反馈验证(2022.12-2023.06):
- 推理速度:满足期望,延迟可接受(对标OpenAI API)
- 输出质量:接近GPT-3.5,但在某些专业领域(医学、法律)精度不足
- 开源社区响应:ChatGLM-6B开源后获得超5万+star,远超预期4——这是最关键的PMF信号
关键洞察:开源版本的爆火说明用户最缺的不是”最强的ChatGPT替代品”,而是”能本地跑的、可定制的、社区驱动的大模型”。这个认知驱动了后续的产品方向调整——将资源倾斜到API和垂直模型,而非纯C端消费级竞争。
2.4 怎么切入市场的PMF
PMF寻找过程(2023-2024):
阶段1:开源社区驱动(2023年Q1-Q3)
- ChatGLM-6B开源,社区贡献数千PR(Lora微调、QLora量化、推理优化等)
- GitHub生态形成正向循环:用户改进 → 贡献到开源 → 官方反哺闭源版本
- PMF信号:从开源社区的改进反馈直接迭代商业版本,形成最小摩擦的升级路径
阶段2:B端API商业化突破(2024年Q1-Q3)
核心动作:推出API普惠定价策略
- 定价策略:主动对标业界最便宜的API(初期甚至贴本)
- 目标用户:对价格敏感的创业公司、中小企业、教育机构
- 销售模式:零销售成本(开发者自助购买)vs.豆包和通义的企业销售模式
关键数据(2024):
PMF达成标志:
- MaaS平台月收入稳定增长,无须融资支撑
- 客户续费率>90%,黏性极高
- API成为最主要收入来源(2025年H1占比超70%预估)
阶段3:多模态+垂直化扩展(2024.05-2025)
- CogVLM(图像理解):客户愿意为垂直领域模型付溢价
- CodeGeeX(代码助手):程序员用户的差异化付费意愿高
- CogVideoX(视频生成):新的收入增长点,吸引创意类客户
- AutoGLM(自主智能体):支持RPA类应用,进入企业自动化市场
PMF本质总结:
智谱找到的是**“B端API是中国大模型最快变现路径”**这一关键洞察。这与国内市场特点密不可分:
- 中国企业对成本敏感,对开源友好
- B端客户更在乎ROI而非品牌
- API即插即用的商业模式减少了销售成本
相比之下:
- 豆包陷入了”通过内容创作吸引用户”的C端模式,变现困难
- 元宝依赖微信生态但支付激活率低
- 通义千问走的是企业销售+定制路线,效率不如API普惠模式
2.5 增长引擎
四大增长引擎(2024-2026):
1. B端API爆发式增长
动力:
- 企业客户寻求比OpenAI API便宜的替代方案(OpenAI API价格高3-5倍)
- 国家政策倾斜(优先采购国产模型)
- 大模型应用成熟(RAG、Agent等标准化方案出现,API使用量激增)
结果:
2. 开源社区网络效应
机制:
- 社区开发者贡献垂直领域应用(量化交易、医学AI、法律AI等)
- 反哺商业版本的优化
- 形成滚雪球效应:开源版本用户数↑ → 付费转化率↑ → 研发投入↑ → 开源版本更优↑
指标:
- ChatGLM GitHub累计获赞超10万(截至2025年)
- 社区实现了Lora、QLora、GPTQ等优化,降低了用户部署门槛
3. 垂直模型矩阵化交叉转化
结构:
- CodeGeeX用户:程序员和开发团队 → 付费转化→ 也使用GLM-4/ChatGLM
- CogVLM用户:设计师、电商运营、内容创作者 → 发现ChatGLM的文本能力
- CogVideoX用户:短视频创作者、广告公司 → 学习其他模型组合方案
交叉转化的关键是API+垂直模型的套装销售——企业客户为一个垂直模型付费,却被整个GLM生态留住。
4. 融资与品牌认可的正向循环
时间线:
- 2024年Q4:融资30亿元,估值提升至200亿+
- 2025年Q1:追加融资18亿元,估值达243.8亿元2
- 2025年Q2-Q3:IPO融资52.3亿港元
- 2026年Q1:上市后估值飙升至2568亿港元2
品牌效应:
- IPO前融资创造了”大模型独角兽”的投资叙事
- IPO后市值飙升给予高估值的投资信心
- 头部企业客户因”国企认可”增加采购意愿(政府国资参与IPO)
增长关键指标总览:
| 指标 | 2022 | 2023 | 2024 | 2025H1 | 增长倍数 |
|---|---|---|---|---|---|
| 年收入 | 5740万 | 1.245亿 | 3.124亿 | 1.91亿 | 33倍(2022-2025H1) |
| 同比增速 | - | 116% | 151% | 325% | 平均增速>100% |
| API收入 | 未统计 | 未统计 | 激增(30倍) | 占比>70% | - |
| 企业客户 | 未统计 | 未统计 | 数千家 | 8000+ | - |
| 付费用户 | 未统计 | 未统计 | 未统计 | 22万 | - |
| ARR | 未统计 | 未统计 | 预计1-2亿 | 超4亿 | 双倍增长 |
2.6 商业变现路径
四层变现系统(已全面验证):
第1层:API按量计费(最核心,核心引擎)
商业模式:
- 价格策略:中国大模型中最便宜的API(输入0.005元/1K tokens,输出0.01元/1K tokens10)
- 目标用户:创业公司、中小企业、开发者、教育机构
- 销售渠道:零销售成本,开发者自助购买(https://open.bigmodel.cn)
客户粘性机制:
- 一次集成,长期依赖:API集成进系统后,切换成本极高(代码改造成本、重新测试成本)
- 按需付费,无长期承诺:企业愿意尝试,一旦满意就是长期客户
数据验证:
第2层:智谱清言订阅(辅助,品牌建设)
商业模式:
- 模式:C端订阅制,类似ChatGPT Plus
- 定价:19.9元/月(对标竞品同价)1
- 用户群:个人开发者、内容创作者、学生
使用数据:
战略价值:
- 虽然收入占比相对较小(预估<20%),但为B端API客户提供了”升级路径”
- 作为品牌触点,提升消费者认知
第3层:企业定制化服务(高毛利,垂直行业)
商业模式:
- 目标:金融、医疗、法律等垂直行业
- 服务内容:模型微调、私有部署、安全审计、行业知识库构建
- 定价:按项目报价,年费通常50万-500万元范围
特点:
- 毛利率高(70%+预估)
- 但需要专业销售和技术支持,不可完全自动化
- 客户数量有限(预计占比10-15%)
第4层:垂直模型许可与API(增长最快)
商业模式:
- CodeGeeX企业版:按座位数或API调用量收费
- CogVLM专业版:图像理解API,按图片数量计费
- CogVideoX生成API:按视频生成次数计费
- AutoGLM商业版:自主智能体部署,按流程自动化数量计费
数据:
- 垂直模型API收入占比仍较小(<15%预估),但增长最快
- CogVideoX作为2024年新产品,有望在2025-2026成为新的增长极
变现强势点总结:
-
距钱最近:B端API客户可立即产生现金流,无需长期销售周期(对标:豆包/元宝需要6-12个月的销售周期)
-
规模化天生设计:API可无限扩展,无产品或运力天花板(对标:企业定制服务有交付能力约束)
-
- 客户粘性极高(续费率>90%)
- 网络效应强(使用量↑ → 依赖度↑ → 切换成本↑)
- 毛利率逐年提升(当前贴本 → 2026年目标20%+ 毛利)5
2.7 竞争壁垒
已形成的壁垒(强度评分):
1. 开源社区粘性(强度:9/10)
构成:
难以复制的原因:
风险:
- 如果技术停滞(新版本不再领先),社区会快速迁移(已有案例:LLaMA 2发布后社区从Alpaca转向LLaMA)
2. B端API客户锁定(强度:8/10)
机制:
- 一旦企业在生产环境中使用智谱API,切换成本极高(代码改造、重新测试、业务中断风险)
- API调用价格便宜,但切换成本远高于价格差异(预估切换成本:500小时-3000小时工程工作量)
数据支撑:
- 当前API毛利率-0.4%,说明公司愿意长期贴本保持用户粘性5
- 企业客户数稳定增长(数千→8000+),流失率推测<10%
风险:
- 新进入者的破坏性创新:如果字节跳动豆包或OpenAI大幅降价,客户可能被吸引离开
- 政策风险:如果某个竞争对手获得政府补贴,价格竞争力瓦解
3. 学术+产业结合(强度:7/10)
优势:
- 清华AI Institute + Zhipu的合作关系给了持续的研究输出和人才渠道
- 唐杰等创始人的学术地位,使得Zhipu能招聘到最顶级的AI研究者
- 研发速度快:GLM-4 → GLM-4.5 → GLM-4.7 → GLM-5的迭代周期仅6-12个月,对标OpenAI
难以复制:
- 大多数创业公司无法与清华建立同等深度的合作
风险:
- 学术优势可能被巨头的资源优势抵消(谷歌、OpenAI、Meta都是学术+资本的结合体)
- 如果清华对Zhipu的支持减弱(政策变化、股权变动等),这个优势会消退
4. 垂直领域差异化(强度:6/10)
差异化点:
- CodeGeeX:在代码生成领域有独特优势,但面临GitHub Copilot(OpenAI)的竞争
- CogVLM:多模态能力强,但GPT-4V已成为事实标准
- CogVideoX:视频生成是新赛道,暂时领先,但Sora一旦普及就会被压制
- AutoGLM:自主智能体领域还很新,Zhipu率先布局,但OpenAI o1、Claude正在追赶
难以复制:
- 垂直模型需要特定领域的数据和专业知识,积累时间较长
- Zhipu的多模型矩阵形成了系统性优势,单个竞争对手很难同时追上所有垂直领域
风险:
- 各个击破:如果OpenAI、DeepSeek等针对单个垂直领域推出专家模型,Zhipu的优势会被蚕食
三、战略框架
3.1 产业分层位置
大模型产业三层结构:
┌─────────────────────────────────────────────┐
│ 应用层(垂直应用、企业服务) │
│ 豆包/元宝(C端) │ Zhipu/通义(B端+垂直) │
├─────────────────────────────────────────────┤
│ 平台层(MaaS、API、开源生态) │
│ OpenAI(闭源API) │ Zhipu(API+开源双轨) │
│ Anthropic │ 通义(API+企业部署) │
├─────────────────────────────────────────────┤
│ 基础层(基础大模型、参数优化) │
│ GPT-4 / Claude │ GLM-4 / Qwen / ChatGPT │
│ DeepSeek R1 │ Llama3.1 │
└─────────────────────────────────────────────┘
智谱的位置:
- 主营阵地:平台层(API + 开源)
- 拓展方向:应用层(垂直模型 + 企业定制)
- 技术基础:基础层(自研GLM系列)
这个位置是最具现金流的——距钱最近的位置。相比C端消费级应用(豆包),Zhipu的B端模式天生变现能力强。
3.2 距钱距离分析
中国大模型公司的距钱距离排序:
| 公司 | 主要产品形态 | 距钱距离 | 实现周期 | 变现难度 | 当前现金流 |
|---|---|---|---|---|---|
| 智谱AI | API + 垂直模型 | 最短 | 1-3个月 | 低 | 3.124亿/年(2024) |
| 通义千问 | 企业API + 应用 | 短 | 3-6个月 | 低-中 | 数亿预估 |
| 豆包 | C端聊天 + 内容 | 长 | 6-12个月 | 高 | 预估不足1亿 |
| 元宝 | 微信生态 | 最长 | 12-24个月 | 最高 | 接近0 |
| MiniMax | API + 垂直模型 | 最短 | 1-3个月 | 低 | 预估<1亿 |
智谱的距钱距离优势来自三个因素:
- 即插即用的商业模式:开发者注册 → 充值 → 调用API → 实时计费,整个流程<1小时
- 低销售成本:不需要专业销售团队,开发者自助购买(获客成本<豆包的1/10)
- 高粘性:一旦API集成进系统,客户续费率>90%
3.3 定价象限分析
大模型API定价矩阵(2025年):
价格低 ←─────────→ 价格高
┌──────────────────────────────┐
│ DeepSeek R1 │GPT-4o │
品质高 │ (高性价比) │(高端) │
│ Zhipu GLM-4.7 │Claude3.5│
│ (平衡型) │ │
├───────────┼──────────────────────────────┤
品质低 │ Zhipu GLM-4-Air │通义-通用 │
│ (超便宜) │(溢价) │
└──────────────────────────────┘
智谱的定位:
- 主力型号GLM-4/4.5:价格低于GPT-4o但性能接近 → 性价比象限
- 高端型号GLM-4-Plus:对标GPT-4-Turbo,定价更便宜 → 溢价逆转
- 高效型号GLM-4-Air:对标GPT-4-mini,价格远低 → 超便宜象限
定价策略的本质:
3.4 反脆弱评估
反脆弱能力(面对竞争与黑天鹅):
强抵抗力(杠铃策略):
-
开源+闭源双轨:黑天鹅保险
- 场景1:如果豆包/通义大幅降价,Zhipu的开源版本仍有市场
- 场景2:如果政策限制闭源模型,Zhipu可转向开源许可商业化
- 评分:8/10(成功的双轨战略)
-
B端多客户结构:分散风险
- 8000+企业客户,单客占比<2%
- 金融、教育、电商、SaaS等多行业覆盖
- 单个行业政策风险不会致命
- 评分:7/10(已初步分散)
-
垂直模型矩阵:多条腿走路
- ChatGLM、CodeGeeX、CogVLM、CogVideoX、AutoGLM形成了产品护城河
- 单个模型被压制,其他模型仍有收入
- 评分:7/10(矩阵初步形成)
弱抵抗力(脆弱点):
-
C端认知薄弱:品牌脆弱
- 大众对”智谱”知名度远低于”豆包”
- IPO后虽然品牌提升,但C端用户仍未充分激活
- 评分:3/10(高风险)
- 对策:依靠B端业务增长,不过度依赖C端
-
盈利压力大:财务脆弱
- 当前API毛利率-0.4%,仍在烧钱阶段5
- IPO后需要快速扭亏为盈,市场容忍度有限
- 评分:4/10(中风险)
- 对策:通过垂直模型提升单客价值,改善毛利率
-
政策不确定性:制度脆弱
- 大模型的内容安全审查存在政策变动风险
- 如果政策收紧,可能影响API规模化商业化
- 评分:5/10(中高风险)
- 对策:积极与监管部门沟通,保持政策合规
四、蓝图复刻
4.1 最值得学的创新
创新1:开源+闭源双轨制
本质:开源吸引社区 → 社区驱动优化 → 反哺闭源版本 → 形成不对称竞争优势
标准做法 vs. 智谱做法:
标准做法:
ChatGPT(闭源) → vs <- LLaMA(开源)
结果:相互压制,市场二元论
智谱做法:
ChatGLM(闭源API) ←→ ChatGLM-6B(开源)
结果:形成闭环,相互促进
具体实现:
启示:
- 如果你是创业公司,不要纠结开源还是闭源,两者都做
- 开源是最好的营销,闭源才是现金流
- 社区贡献的优化是免费的研发资源
创新2:B端API普惠定价
本质:主动降价 → 薄利多销 → 规模化覆盖 → 成本下降 → 利润提升
定价逻辑:
传统软件:
定价高 → 销量少 → 利润高但增长慢
大模型API:
定价低 → 销量多 → 快速占领市场 → 成本下降(规模效应) → 利润反而更高
关键数据支撑:
- 当前:API调用量激增(日均Token增长150倍),但毛利率-0.4%
- 未来:预计2026年API毛利率达20%+(规模带来的成本优化)
启示:
- 价格战不是”谁最便宜赢”,而是”谁能负担最低价”
- Zhipu能负担最低价,因为他们有:
- 融资充足(不怕烧钱)
- 技术效率高(推理成本相对低)
- 社区优化(降低了R&D成本)
创新3:垂直模型矩阵快速扩展
本质:不做”最强的通用模型”,而做”最全的垂直模型组合”
对标:
- OpenAI:只有ChatGPT(通用)+ GPT-4V(多模态)
- 谷歌:Bard(通用) + MusicLM(音乐) + ImageGen(图像)
- Zhipu:ChatGLM(通用) + CodeGeeX(代码) + CogVLM(视觉) + CogVideoX(视频) + AutoGLM(智能体)
快速扩展的秘诀:
- 基础模型复用:所有垂直模型都基于GLM架构,减少重复开发
- 开源驱动迭代:CogVLM、CogVideoX都有开源版本,社区优化反哺商业版
- 小模型先行:2B、5B的CogVideoX开源版先发布,验证市场 → 再推企业版API
启示:
4.2 战术剧本
剧本1:B端API商业化的完整路线
Phase 1(3-6个月):破冰期
├─ 推出平价API(对标最便宜竞争对手)
├─ 建立自助购买体系(降低销售成本)
├─ 建立开发者社区(GitHub/微信群/论坛)
└─ 目标:获得前1000个付费客户
Phase 2(6-12个月):规模化期
├─ 优化API稳定性和推理速度(客户满意度>90%)
├─ 推出行业解决方案(金融、教育、电商模板)
├─ 建立企业客户成功团队(减少流失)
└─ 目标:10000+付费客户,日均调用量突破X亿
Phase 3(12-24个月):垂直化期
├─ 推出行业垂直模型(CodeGeeX for 金融、CogVLM for 电商)
├─ 垂直模型定价溢价50-100%(提升客户单价)
├─ 组建企业定制团队(高价值客户)
└─ 目标:单客ARPU提升3倍,毛利率达15%
Phase 4(24+个月):融资与IPO
├─ 发起融资,讲述"B端API规模化"故事
├─ 上市前财报秀出"高增长"(100%+)
├─ 上市后通过品牌建设获取C端用户
└─ 目标:市值>500亿,成为大模型上市第一股
剧本2:开源社区驱动增长
Step 1:选择合适的参数规模
├─ 太小(3B以下):无法展示能力
├─ 合适(6B-32B):可本地跑,又有竞争力
└─ 太大(100B+):无法本地部署
Step 2:激励社区贡献
├─ GitHub issue & discussion活跃回复
├─ 社区优化代码接收(Lora、QLora、推理优化)
├─ 举办竞赛(微调、应用开发)
└─ 优秀贡献者推送至官方渠道
Step 3:反哺闭源版本
├─ 社区的Lora微调 → 融合进官方版本
├─ 社区的推理优化 → 应用进API服务
├─ 社区反馈的BUG → 优先修复
└─ 结果:开源版本 = 最好的质量反馈来源
Step 4:转化为商业化
├─ 开源版本用户注册自助平台
├─ 提供付费API升级(性能、功能更多)
├─ 企业定制基于开源版本的微调
└─ 结果:开源社区 = 最便宜的获客渠道
4.3 反面教材
教材1:“C端梦”拖累融资进度
现象:
- 智谱清言虽有300万活跃用户,但DAU远低于豆包(1000万+)和元宝(500万+)
- 融资路演中,投资方多次问”为什么C端打不过豆包”
- 公司被迫投入更多资源到C端产品,以满足融资叙事需求
本质问题:
- 不该参加的竞争:C端聊天应用的竞争对象是豆包、元宝,而不是OpenAI
- 资源错配:用于C端的资源本应用于B端API优化,反而拖累了核心业务
- 融资叙事过度:为了讲”更全能”的故事而伤害了”最专精”的定位
吸取教训:
- 不要全面覆盖,聚焦一个方向
- Zhipu应该彻底放弃C端消费级的”梦想”,深化B端API垄断地位
- IPO叙事应该是”中国最大的大模型API提供商”而非”大模型应用平台”
教材2:“API价格战”的陷阱
现象:
- Zhipu通过最低价格抢占市场,日均Token增长150倍
- 但API毛利率仍为-0.4%,公司在贴本运营5
潜在风险:
吸取教训:
- 定价战的终局不是”赢”,而是”和”
- Zhipu应该更早转向垂直模型(高毛利)而非纯API竞争
- CodeGeeX、CogVLM、CogVideoX的毛利率可能达50%+,这是长期利润来源
4.4 三个核心启示
启示1:B端变现 > C端变现(在大模型领域)
数据对比:
- B端:企业客户有明确的ROI计算,购买力强,续费率>90%,平均合同期1年+
- C端:用户为免费版本付费意愿仅3-5%,留存率低,平均订阅周期<3个月
Zhipu的验证:
- B端API收入(2024):激增30倍,占比>70%
- C端订阅(2024):用户300万,付费仅22万(转化率7%),收入占比<20%
创业启示:
- [[大模型创业应该重B端轻C端]]
- 如果资源有限,先做B端API,后做C端应用
- 豆包的错误就是过度关注C端,导致变现困难
启示2:开源是最好的营销
Zhipu的成功验证:
对标分析:
- Meta LLaMA:通过开源建立社区,反过来威胁OpenAI的市场位置
- Google T5:开源T5模型,吸引无数研究者,推动生态建立
创业启示:
- 不要担心”开源会泄露技术”
- 真正的护城河不在代码,而在数据、优化、社区
- 开源反而能吸引最好的人才和最真实的用户反馈
启示3:模型矩阵 > 单一旗舰
Zhipu的多模型策略:
ChatGLM + CodeGeeX + CogVLM + CogVideoX + AutoGLM
↓ ↓ ↓ ↓ ↓
通用对话 代码生成 视觉理解 视频生成 智能体
↓ ↓ ↓ ↓ ↓
所有企业 程序员 设计师 创意团队 自动化部门
↓────────┴─────────┴────────┴─────────┘
单个用户被粘住在生态中
优势:
- 用户为一个垂直模型付费,却被整个生态留住
- 单个模型被压制(例如ChatGLM被GPT-4击败),其他模型(CodeGeeX)仍有收入
- 交叉转化:CodeGeeX用户发现ChatGLM性能接近GPT-3.5,愿意替换API供应商
对标:
- OpenAI:单一ChatGPT + Codex,缺乏多元化
- Google:Bard(通用) + MusicLM(音乐) + ImageGen(图像),但各自独立
创业启示:
- 不要执着于”最强的模型”,而是最全的模型组合
- 首个垂直模型可能不会赢,但第N个垂直模型的组合能赢
五、战略框架与定位
5.1 产业分层解读
大模型产业的关键发现:中国市场与全球市场的分化
全球格局(以OpenAI为中心):
- 基础层:GPT-4(最强通用)
- 平台层:ChatGPT API(事实标准)
- 应用层:Copilot、Canvas等集成应用
中国格局(多方割据):
Zhipu的位置:
战略意义:
- 从基础层 → 平台层 → 应用层的垂直整合,形成完整的产业链闭环
- 这与AWS(从基础设施 → 平台 → 应用层SaaS)的成长路径一致
5.2 竞争地位矩阵
技术深度高 ←──────→ 技术深度低
┌──────────────────────────────┐
距钱 │ OpenAI │ MiniMax │Anthropic
最近 │ (API强) │ (API强) │(技术强)
│ Zhipu │ 通义 │
距钱 │ (双轨优) │(企业部署) │
较远 ├──────────────────────────────┤
距钱 │ 豆包 │ Moonshot │ Google AI│
最远 │ (C端内容) │ (微信) │ (基础) │
│ 元宝 │ │ │
└──────────────────────────────┘
Zhipu的位置分析:
- 纵坐标(距钱距离):次短(仅次于MiniMax的API),超越通义的企业部署,远胜豆包/元宝的C端模式
- 横坐标(技术深度):顶级(清华系背景,持续产出新模型),仅次于OpenAI/Anthropic
结论:Zhipu占据了最优的象限——既有强技术,又有近的变现路径。
六、Mars视角
核心观察
表面成就:
- 融资充足(83.6亿元)✓
- 上市成功(2568亿港元市值)✓
- 企业客户众多(8000+)✓
- API收入激增(30倍增速)✓
隐藏的问题:
-
- B端:API年收入3.124亿,用户粘性极高
- C端:智谱清言虽有300万用户,但DAU不足豆包的5%,付费率仅7%
- 融资时被迫标榜”C端用户数百万”来对标豆包的”亿级”,显得有些虚弱
-
- 2024年融资30+亿元
- 2025年再融资18+亿元
- IPO融资52.3亿港元
- 总共融资超200亿,仍未实现正毛利
- 这对于一家声称已实现变现的公司来说,是警信号
三个核心洞察
洞察1:B端变现的”距钱最近”悖论
表面逻辑:
- B端客户有ROI计算 → 购买力强 → 变现快
- API即插即用 → 销售成本低 → 获客效率高
隐藏的陷阱:
- B端API是高度商品化的市场
- 一旦进入”价格战”,就是薄利时代
- Zhipu虽然是”最便宜”,但这成为了竞争的唯一维度
- 后入者(字节豆包、阿里通义)只需烧更多钱就能击败Zhipu
正确的姿态:
- Zhipu应该尽快从API价格竞争转向垂直模型
- CodeGeeX、CogVLM、CogVideoX的毛利率可能是API的3-5倍
- 用垂直模型的高毛利补贴API的低毛利,这是亚马逊AWS的成功模式
洞察2:开源社区是唯一不可复制的护城河
可以被复制的:
- 技术:DeepSeek、通义也能达到GLM-4.7的水平
- 融资:字节、阿里有更强的融资能力
- 人才:任何公司都能挖顶级研究者
- 基础设施:谷歌、微软的芯片支持力度更大
不能被快速复制的:
- ChatGLM社区的历史沉淀:5万+star,数千个社区贡献,建立了事实标准
- 社区成员的心理认同:已经在ChatGLM上进行的垂直开发无法迁移
- 网络效应的不可逆性:一旦社区规模达到临界点,新的开源模型很难吸引同等人气
关键行动:
IPO带来的变化:
- 估值从243.8亿飙升到2568亿港元(10倍增长)2
- 品牌认知大幅提升(成为”中国首个大模型上市公司”)
- 融资能力大幅增强(融资52.3亿港元)
IPO没解决的问题:
- 仍未实现正毛利:当前API毛利率-0.4%
- 仍未解决C端困局:IPO后的品牌提升能否转化为C端用户,还需观察
- 市场对盈利的容忍度在下降:IPO后需要快速扭亏为盈,否则股价会承压
对Zhipu管理层的建议:
- 不要迷信IPO的品牌效应
- 关键是2026年Q1-Q2的财报成绩:需要证明毛利率开始提升
- 垂直模型商业化是唯一出路:CodeGeeX企业版、CogVideoX API必须成为新的收入驱动
最后的判断
Zhipu的本质:
- 一家技术顶级、融资充足、B端基础扎实的公司
- 但在商业化执行、配置论优化、品牌叙事上有明显短板
最可能的未来(2026-2027)**:
乐观预期:
- 垂直模型(CodeGeeX、CogVideoX)商业化成功
- API毛利率从-0.4% → 15%-20%
- 成为被低估的大模型上市公司(因为盈利能力被低估)
- 2027年股价翻倍
悲观预期:
中位预期(最可能发生)**:
AI 草稿——待 Mars 确认
相关案例
6.1 与其他大模型的对比学习
Case 1:Zhipu vs 豆包
- Zhipu:B端API > C端应用,变现能力强但品牌弱
- 豆包:C端应用 > B端API,品牌强但变现困难
- 启示:选择正确的主阵地比全面覆盖更重要
Case 2:Zhipu vs 通义千问
- Zhipu:开源+闭源双轨,社区生态强
- 通义:企业部署+API并行,企业级深度强
- 启示:两种模式都可行,关键是专注度
Case 3:Zhipu vs OpenAI
- Zhipu:融资驱动的增长,API毛利率负
- OpenAI:产品驱动的增长,API毛利率高
- 启示:融资快 ≠ 盈利快,需要真正的PMF
6.2 大模型商业化的通用规律
规律1:距钱距离 = 变现速度
- API(距钱最近):1-3个月现金流
- 企业定制(距钱较近):3-6个月
- C端订阅(距钱较远):6-12个月
规律2:开源是营销,不是产品
规律3:垂直模型的溢价能力强于通用模型
- 通用模型:价格竞争,毛利率低
- 垂直模型:功能竞争,毛利率高
看完后推荐
时间线
| 时间 | 事件 | 影响 |
|---|---|---|
| 2019.04 | 公司成立 | 创业启动 |
| 2021 | 参与”悟道”项目 | 掌握超大规模模型训练经验 |
| 2022.12 | GLM-130B + ChatGLM发布 | 产品化首秀 |
| 2023.03 | ChatGLM-6B开源 | 社区驱动增长启动 |
| 2023.06 | ChatGLM-12B/32B开源 | 参数规模扩展 |
| 2024.05 | GLM-4、CodeGeeX、CogVLM发布 | 垂直化矩阵成型 |
| 2024.08 | API规模化商业化启动 | 收入激增30倍 |
| 2024.10 | GLM-4.5发布 | 性能对标GPT-4 |
| 2024.12 | AutoGLM开源发布 | 进入agent领域 |
| 2025.04 | 启动IPO流程 | 上市计划公布 |
| 2025.07 | GLM-4.5 Air、GLM-Z1-Air发布 | 高效模型推出 |
| 2025.12 | AutoGLM核心组件开源 | 生态进一步开放 |
| 2026.01 | 港交所IPO上市(股票代码2513) | 成为”大模型第一股” |
| 2026.01 | 宣布GLM-5即将发布 | 新一代基础模型 |
| 2026.03+ | 预期发布GLM-5、垂直模型API优化 | 商业化第二阶段 |
参考来源
- 量子位:火线解析智谱AI招股书
- 智源社区:智谱定档大模型第一股
- 智谱AI官网
- Yahoo Finance:中国创业公司Zhipu和MiniMax发布最新AI模型
- TechNode:Zhipu AI开源AutoGLM
- ChatGLM GitHub仓库
- Zhipu AI开放平台
- CogVideoX GitHub
更新日志
| 日期 | 更新内容 | 版本 |
|---|---|---|
| 2025-03-16 | 初版卡片(基于IPO前数据) | v0.1 |
| 2026-01-10 | 补充IPO数据、市值更新 | v1.0 |
| 2026-02-27 | 新增企业客户数量、ARR、付费用户等数据 | v2.0 |
| 2026-03-17 | v4.0模板重写,补充AutoGLM、GLM-4.5/4.7信息,Mars视角分析 | v4.0 |
脚注与引用
Footnotes
-
ChatGPT发布前两年,抢占大模型创业风口;API日均消耗量增长150倍,收入激增30倍(来源:原文档) ↩ ↩2 ↩3 ↩4 ↩5 ↩6 ↩7
-
2026年1月8日港交所上市,募资52.3亿港元,市值约2568亿港元(来源:Yahoo Finance) ↩ ↩2 ↩3 ↩4 ↩5 ↩6
-
唐杰是IEEE/ACM/AAAI Fellow,曾主导开发1.75万亿参数的”悟道”模型(来源:Zhipu官网) ↩ ↩2 ↩3 ↩4
-
ChatGLM-6B开源后获得5万+star,社区贡献数千PR(来源:ChatGLM GitHub) ↩ ↩2 ↩3
-
企业客户8000+,ARR超4亿元,付费用户22万,付费Tokens增长50倍(来源:36氪) ↩ ↩2 ↩3 ↩4 ↩5 ↩6 ↩7 ↩8 ↩9 ↩10 ↩11 ↩12
-
GLM-4.5发布于2024.10,GLM-4.7发布于2025.07,GLM-5即将发布(来源:Zhipu新闻) ↩ ↩2 ↩3 ↩4
-
AutoGLM支持50+应用自动化,GLM-Z1-Air性能与DeepSeek R1相当但推理快8倍(来源:TechNode) ↩ ↩2 ↩3
-
CodeGeeX与Intel合作开发AI PC版本,CogVideoX支持5B开源版本(来源:GitHub和官方文档) ↩ ↩2