月之暗面首位离职创业者王冠:压缩即智能,与AI产品经理的十年
AI Business

月之暗面首位离职创业者王冠:压缩即智能,与AI产品经理的十年

王冠
2025年12月18日小宇宙
返回首页

金句精选

我应该是公司第一个离职的人。公司的离职流程就是从我那个时候开始有的。

我会认为说其实今天的产品经理它的价值反而是被放大了。因为不管是在System 1还是System 2,它都有产品能够发挥巨大价值。

压缩它会带来数据之间的连续...这种连续它对外的展现就会是某种智能,或者说我们去叫它涌现、泛化。

人工智能有一句流传很久的话叫“有多少人工就有多少智能”...这个人工它代表的是数据...数据决定的那个智能的边界。

什么是适合去做应用层的创业的机会呢?它也跟数据有关,我们把它称为叫第三份数据...就是产品内生的数据,简单来讲就是之前不存在的数据。

正文内容

你有没有这种绝望的时刻:你辛辛苦苦写了三个月的代码,刚要把产品推向市场,第二天OpenAI发布更新,直接把你的核心功能变成了它的一个免费插件。

这不是段子,这是2023年无数AI创业者的噩梦。

这也是王冠(Wang Guan)亲身经历的"至暗时刻"。作为前Kimi(月之暗面)的模型产品负责人,他在创业初期,精准地踩中了OpenAI每一次迭代的"死穴"。

他在Notion里做写作助手,ChatGPT发布了;他做代码生成图表,GPT-4 Code Interpreter来了;他做AI工作流(Workflow),OpenAI推出了Plugins。

"我就像个倒霉的预言家,精准地用自己的失败预测了OpenAI的下一步。"

但正是这三次"被杀"的经历,让他看清了AI创业的终极真相:如果不掌握"第三份数据",所有的AI应用都只是巨头的餐前甜点。

今天,我们就来拆解王冠用上亿美金估值换来的血泪教训:在模型能力日益通用的今天,普通人到底该怎么做AI产品,才能活下来?


十年AI老兵的"降维打击"

王冠不是什么AI小白。

从大数据时代在百度做用户画像,到CV(计算机视觉)时代在旷视做算法平台,再到作为月之暗面(Moonshot AI)的早期核心成员,他是国内少有的完整经历了AI 1.0到3.0时代的产品经理。

在月之暗面那一年,他和团队在一个叫做"龙人居"的饭馆里,听创始人杨植麟讲了3个小时的"压缩即智能"。那段时间,他们像当年搞原子弹一样,为了"搞出Kimi,挺直腰杆子"而没日没夜地工作。

他本可以舒舒服服地待在这家独角兽公司,享受估值飙升的红利。但他看到了一个更本质的问题:模型层的竞争是神仙打架,应用层的机会到底在哪里?

带着这个问题,他成了月之暗面第一个离职创业的人,创办了ONE2X工作室。

被GPT-4"追杀"的窒息感

2023年初,ChatGPT横空出世。王冠的第一反应是:机会来了。

他敏锐地发现,当时的GPT-3虽然强,但写作体验还不够丝滑。于是,他和团队基于GPT-3接口,开发了一款嵌入Notion的写作助手。逻辑很通顺:用户输入关键词,AI自动补全段落。

Demo刚跑通没几天,ChatGPT发布,直接免费提供了对话式写作。王冠的项目,卒。

他不死心。写作不行,那就做数据分析。他想做一个工具:上传Excel表格,AI自动画出漂亮的图表。这个需求够垂直、够刚需了吧?

结果,GPT-4发布,自带代码解释器(Code Interpreter),上传Excel直接出图,比他做得更好、更快���王冠的项目,再次卒。

"事不过三",王冠决定做更底层的Workflow(工作流),把不同的AI节点串联起来。结果,OpenAI反手就是一个Plugins插件平台,逻辑一模一样。

连续三次,精准踩雷。

这让王冠陷入了深深的自我怀疑:难道在基础模型面前,所有的应用层创业都是伪命题?我们是不是只能做个"套壳"的中间商,等着被OpenAI收割?

直到他重新审视"数据"这个核心要素,那个关乎生死的转折点终于出现了。


AI创业的唯一解:构建"第三份数据"

王冠发现,AI行业有一句老话永远不过时:"有多少人工,就有多少智能。"

这里的"人工",本质上就是数据

无论模型多么强大,它依然是一个被数据定义边界的圆。算力决定了你逼近这个圆的速度,算法决定了你能否稍微突破一点边界,但数据决定了这个圆到底有多大

基于这个认知,王冠把AI创业分成了三个阶段。如果你想活下来,必须死磕第三个阶段。

第一阶段:公域数据的"军备竞赛"(已结束)

这是ChatGPT刚出来时的阶段。大家拼的是谁能把互联网上已有的公开数据(Wiki、Github代码、网页文本)清洗得更干净,喂给模型。

这就像是在挖金矿,地表的一层金子,谁铲子大(算力强)、谁动作快(团队执行力强),谁就能赢。

结论:这个阶段是OpenAI、Google、Kimi这些基座模型厂商的战场。普通创业者?别想了,你连入场券(几千张H100显卡)都买不起。

第二阶段:私域数据的"大厂游戏"(进行中)

公域数据挖完了,大家开始拼"我有你没有"的数据。

比如银行的交易流水、医院的病历档案、电商平台的独家评论。这些数据被称为Domain Data(领域数据)。

谁最占优势?是那些已经拥有海量业务数据的大厂和传统行业巨头。

结论:如果你是某个垂直行业的SaaS老兵,手里握着十年的行业数据,你有机会。但如果你是从零开始的创业者,这一块你也碰不到。

第三阶段:产品内生数据(普通人的唯一机会)

这才是王冠用三次失败换来的终极答案:去做"第三份数据"。

什么是第三份数据?就是因为你的产品存在,才在这个世界上诞生的新数据。

最经典的例子就是ChatGPT本身。

在ChatGPT出现之前,人类历史上并不存在"通过多轮对话来解决复杂逻辑问题"的数据。我们有对话数据(聊天记录),有逻辑数据(代码、论文),但没有"用对话解决逻辑"的数据。

OpenAI做了一个对话框产品,诱导全人类通过对话来提问。于是,人类贡献了海量的Prompt(提示词)和多轮修正过程。这份数据,是OpenAI真正的护城河。

即使Google拿到了全网的文本,它也没有这份"人与AI交互"的数据。

具体怎么做?王冠给出了3个实操步骤:

第一步:设计"诱导式"交互

不要只是简单地调用API返回结果。你的产品形态,必须能诱导用户产生新的行为。

比如Midjourney。它不只是一个画图工具,它建立了一个Discord社区。用户在这里不仅输入Prompt,还会不断地U(放大)、V(变体)、R(重绘)。

每一次点击,都是用户在告诉模型:"这张图好,那张图不好。"这就是在生产之前不存在的"审美偏好数据"。

第二步:建立数据回流闭环

很多"套壳"产品死就死在:数据是单向流动的。用户提问 -> 调用GPT -> 返回答案 -> 结束。

这样做,你只是OpenAI的搬运工。

正确的做法是:用户提问 -> 调用模型 -> 用户反馈/修正/追问 -> 数据沉淀 -> 微调小模型 -> 提供更好服务。

你要把用户在使用过程中的每一次修改、每一次确认,都变成你的私有数据。比如你做一个AI写周报工具,重点不是"写",而是记录用户"改"了什么。用户修改的地方,就是通用模型不懂你公司业务的地方,也就是你的价值所在。

第三步:用数据定义新边界

当你的产品积累了足够多的"内生数据",你就可以训练一个垂直的小模型。

这个小模型在通用能力上不如GPT-4,但在你定义的这个窄场景里(比如"写符合阿里味儿的周报"),它能吊打GPT-4。

这时候,就算OpenAI推出了周报功能,它也没有你手里那10万条"阿里味儿"的修改记录。你的数据,构成了新的智能边界。


理论升华:智能的时空观

王冠在访谈中提出了一个极具哲学意味的观点:智能是一个时空观。

想象一个二维平面上的圆。

  • 数据是这个圆的边界(Boundary)。
  • 算力是你从圆心出发,逼近这个边界的速度(Speed)。
  • 算法是你触达边界后,向外突破的张力(Tension)。

现在的AI行业,大家都在卷算力(速度),试图更快地到达边界。但对于创业者来说,你没有光速飞船,你唯一的胜算,是去画一个属于你自己的、别人从未见过的小圆。

这个小圆,就是由你的"产品内生数据"定义的。

给创业者的局限性提醒

当然,这套打法不是万能的。王冠特别强调了两点"劝退"指南:

  1. 冷启动极难:在没有数据的时候,你的产品可能体验很差。你必须依靠极强的产品设计(Product Design)或者人工辅助(Human in the loop),熬过数据匮乏的早期阶段。
  2. 技术门槛仍在:虽然不要求你从头训练大模型,但你必须具备Fine-tuning(微调)和RAG(检索增强生成)的能力。纯粹的"点子型"创业者,如果连基本的工程化能力都没有,依然接不住这份数据。

写在最后

在访谈的最后,王冠说了一句让我起鸡皮疙瘩的话:

"不要去预测模型明天会拥有什么能力,因为它终将拥有一切能力。你要去赌的是,有什么东西是模型永远无法通过'读书'(预训练)学到的。"

那个东西,就是此时此刻,具体的、鲜活的、发生在你产品里的每一次用户交互。

OpenAI可以读完互联网上所有的书,但它读不到你用户脑子里的那个还没说出口的想法。

去设计一款产品,把那个想法捕捉下来。

别做中间商,去做那个定义边界的人。