正文内容
你有没有这种绝望的时刻:你辛辛苦苦写了三个月的代码,刚要把产品推向市场,第二天OpenAI发布更新,直接把你的核心功能变成了它的一个免费插件。
这不是段子,这是2023年无数AI创业者的噩梦。
这也是王冠(Wang Guan)亲身经历的"至暗时刻"。作为前Kimi(月之暗面)的模型产品负责人,他在创业初期,精准地踩中了OpenAI每一次迭代的"死穴"。
他在Notion里做写作助手,ChatGPT发布了;他做代码生成图表,GPT-4 Code Interpreter来了;他做AI工作流(Workflow),OpenAI推出了Plugins。
"我就像个倒霉的预言家,精准地用自己的失败预测了OpenAI的下一步。"
但正是这三次"被杀"的经历,让他看清了AI创业的终极真相:如果不掌握"第三份数据",所有的AI应用都只是巨头的餐前甜点。
今天,我们就来拆解王冠用上亿美金估值换来的血泪教训:在模型能力日益通用的今天,普通人到底该怎么做AI产品,才能活下来?
十年AI老兵的"降维打击"
王冠不是什么AI小白。
从大数据时代在百度做用户画像,到CV(计算机视觉)时代在旷视做算法平台,再到作为月之暗面(Moonshot AI)的早期核心成员,他是国内少有的完整经历了AI 1.0到3.0时代的产品经理。
在月之暗面那一年,他和团队在一个叫做"龙人居"的饭馆里,听创始人杨植麟讲了3个小时的"压缩即智能"。那段时间,他们像当年搞原子弹一样,为了"搞出Kimi,挺直腰杆子"而没日没夜地工作。
他本可以舒舒服服地待在这家独角兽公司,享受估值飙升的红利。但他看到了一个更本质的问题:模型层的竞争是神仙打架,应用层的机会到底在哪里?
带着这个问题,他成了月之暗面第一个离职创业的人,创办了ONE2X工作室。
被GPT-4"追杀"的窒息感
2023年初,ChatGPT横空出世。王冠的第一反应是:机会来了。
他敏锐地发现,当时的GPT-3虽然强,但写作体验还不够丝滑。于是,他和团队基于GPT-3接口,开发了一款嵌入Notion的写作助手。逻辑很通顺:用户输入关键词,AI自动补全段落。
Demo刚跑通没几天,ChatGPT发布,直接免费提供了对话式写作。王冠的项目,卒。
他不死心。写作不行,那就做数据分析。他想做一个工具:上传Excel表格,AI自动画出漂亮的图表。这个需求够垂直、够刚需了吧?
结果,GPT-4发布,自带代码解释器(Code Interpreter),上传Excel直接出图,比他做得更好、更快���王冠的项目,再次卒。
"事不过三",王冠决定做更底层的Workflow(工作流),把不同的AI节点串联起来。结果,OpenAI反手就是一个Plugins插件平台,逻辑一模一样。
连续三次,精准踩雷。
这让王冠陷入了深深的自我怀疑:难道在基础模型面前,所有的应用层创业都是伪命题?我们是不是只能做个"套壳"的中间商,等着被OpenAI收割?
直到他重新审视"数据"这个核心要素,那个关乎生死的转折点终于出现了。
AI创业的唯一解:构建"第三份数据"
王冠发现,AI行业有一句老话永远不过时:"有多少人工,就有多少智能。"
这里的"人工",本质上就是数据。
无论模型多么强大,它依然是一个被数据定义边界的圆。算力决定了你逼近这个圆的速度,算法决定了你能否稍微突破一点边界,但数据决定了这个圆到底有多大。
基于这个认知,王冠把AI创业分成了三个阶段。如果你想活下来,必须死磕第三个阶段。
第一阶段:公域数据的"军备竞赛"(已结束)
这是ChatGPT刚出来时的阶段。大家拼的是谁能把互联网上已有的公开数据(Wiki、Github代码、网页文本)清洗得更干净,喂给模型。
这就像是在挖金矿,地表的一层金子,谁铲子大(算力强)、谁动作快(团队执行力强),谁就能赢。
结论:这个阶段是OpenAI、Google、Kimi这些基座模型厂商的战场。普通创业者?别想了,你连入场券(几千张H100显卡)都买不起。
第二阶段:私域数据的"大厂游戏"(进行中)
公域数据挖完了,大家开始拼"我有你没有"的数据。
比如银行的交易流水、医院的病历档案、电商平台的独家评论。这些数据被称为Domain Data(领域数据)。
谁最占优势?是那些已经拥有海量业务数据的大厂和传统行业巨头。
结论:如果你是某个垂直行业的SaaS老兵,手里握着十年的行业数据,你有机会。但如果你是从零开始的创业者,这一块你也碰不到。
第三阶段:产品内生数据(普通人的唯一机会)
这才是王冠用三次失败换来的终极答案:去做"第三份数据"。
什么是第三份数据?就是因为你的产品存在,才在这个世界上诞生的新数据。
最经典的例子就是ChatGPT本身。
在ChatGPT出现之前,人类历史上并不存在"通过多轮对话来解决复杂逻辑问题"的数据。我们有对话数据(聊天记录),有逻辑数据(代码、论文),但没有"用对话解决逻辑"的数据。
OpenAI做了一个对话框产品,诱导全人类通过对话来提问。于是,人类贡献了海量的Prompt(提示词)和多轮修正过程。这份数据,是OpenAI真正的护城河。
即使Google拿到了全网的文本,它也没有这份"人与AI交互"的数据。
具体怎么做?王冠给出了3个实操步骤:
第一步:设计"诱导式"交互
不要只是简单地调用API返回结果。你的产品形态,必须能诱导用户产生新的行为。
比如Midjourney。它不只是一个画图工具,它建立了一个Discord社区。用户在这里不仅输入Prompt,还会不断地U(放大)、V(变体)、R(重绘)。
每一次点击,都是用户在告诉模型:"这张图好,那张图不好。"这就是在生产之前不存在的"审美偏好数据"。
第二步:建立数据回流闭环
很多"套壳"产品死就死在:数据是单向流动的。用户提问 -> 调用GPT -> 返回答案 -> 结束。
这样做,你只是OpenAI的搬运工。
正确的做法是:用户提问 -> 调用模型 -> 用户反馈/修正/追问 -> 数据沉淀 -> 微调小模型 -> 提供更好服务。
你要把用户在使用过程中的每一次修改、每一次确认,都变成你的私有数据。比如你做一个AI写周报工具,重点不是"写",而是记录用户"改"了什么。用户修改的地方,就是通用模型不懂你公司业务的地方,也就是你的价值所在。
第三步:用数据定义新边界
当你的产品积累了足够多的"内生数据",你就可以训练一个垂直的小模型。
这个小模型在通用能力上不如GPT-4,但在你定义的这个窄场景里(比如"写符合阿里味儿的周报"),它能吊打GPT-4。
这时候,就算OpenAI推出了周报功能,它也没有你手里那10万条"阿里味儿"的修改记录。你的数据,构成了新的智能边界。
理论升华:智能的时空观
王冠在访谈中提出了一个极具哲学意味的观点:智能是一个时空观。
想象一个二维平面上的圆。
- 数据是这个圆的边界(Boundary)。
- 算力是你从圆心出发,逼近这个边界的速度(Speed)。
- 算法是你触达边界后,向外突破的张力(Tension)。
现在的AI行业,大家都在卷算力(速度),试图更快地到达边界。但对于创业者来说,你没有光速飞船,你唯一的胜算,是去画一个属于你自己的、别人从未见过的小圆。
这个小圆,就是由你的"产品内生数据"定义的。
给创业者的局限性提醒
当然,这套打法不是万能的。王冠特别强调了两点"劝退"指南:
- 冷启动极难:在没有数据的时候,你的产品可能体验很差。你必须依靠极强的产品设计(Product Design)或者人工辅助(Human in the loop),熬过数据匮乏的早期阶段。
- 技术门槛仍在:虽然不要求你从头训练大模型,但你必须具备Fine-tuning(微调)和RAG(检索增强生成)的能力。纯粹的"点子型"创业者,如果连基本的工程化能力都没有,依然接不住这份数据。
写在最后
在访谈的最后,王冠说了一句让我起鸡皮疙瘩的话:
"不要去预测模型明天会拥有什么能力,因为它终将拥有一切能力。你要去赌的是,有什么东西是模型永远无法通过'读书'(预训练)学到的。"
那个东西,就是此时此刻,具体的、鲜活的、发生在你产品里的每一次用户交互。
OpenAI可以读完互联网上所有的书,但它读不到你用户脑子里的那个还没说出口的想法。
去设计一款产品,把那个想法捕捉下来。
别做中间商,去做那个定义边界的人。