源文出处:The Model is the Product | Vintage Data
这几年,关于 AI 发展的下一步方向,大家一直在猜测:会是智能体(Agents)?推理能力(Reasoners)?真正的多模态(Actual Multimodality)?现在,答案似乎已经浮出水面——模型本身就是产品。
为什么这么说?所有的趋势都指向这条路
目前的研究进展和市场动态,都在推动 AI 向这个方向发展。
1. 通用模型的扩展正在放缓
我们从 GPT-4.5 的发布中可以看出,AI 的能力虽然还在增长,但增长曲线是线性的,而算力成本却是指数级的。即使 OpenAI 在过去两年大幅优化了训练效率和基础设施,依然无法以“合理”的成本部署这个庞大的模型。换句话说,大力堆算力的时代已经到头了。
2. “定向训练”效果出奇地好
通过强化学习和推理能力结合,模型正在“主动学习”特定任务。这已经不只是传统的“机器学习”,也不同于基础大模型,而是一种全新的范式:
- 体量小得多的模型,突然在数学题上表现惊人。
- 代码模型不再只是“生成代码”,而是能独立管理整个代码库。
- Claude 在几乎没有上下文信息、也没有专门训练的情况下,就能玩《精灵宝可梦》。
这意味着,我们未来不一定要依赖超大规模的通用模型,专门训练的小模型反而可能更有优势。
3. 推理成本正在暴跌
最近 DeepSeek 的优化,让我们看到了推理成本下降的趋势:现有的 GPU 资源足以支撑全球 80 亿人,每人每天消费 10,000 个 token,但问题是——根本没这么大的需求。这对模型提供商来说是个大麻烦:光靠卖 token 已经赚不到钱了,他们必须往价值链更高的地方移动。
应用层,可能是第一个被 AI 颠覆的领域
这对投资者来说,是个不太舒服的事实。过去所有的资本,都押注在 AI 应用层,希望用 AI 赋能各种产品。但现在看来,下一阶段 AI 发展的第一步,可能就是把应用层自动化和取代掉。
如果 AI 直接成为产品,应用层的价值就会被压缩,整个市场的商业模式也会发生颠覆性变化。
未来 AI 公司的竞争,可能不再是“谁的 API 更强”,而是谁能训练出最有价值、最能解决实际问题的模型。
未来 AI 模型的形态:不只是聊天机器人,而是更高级的智能体
最近,我们看到了一些新一代 AI 模型的雏形,比如 OpenAI 的 DeepResearch 和 Anthropic 的 Claude 3.7。这些模型表明,AI 发展的方向正在发生根本性变化——模型本身不再只是一个通用的大语言模型,而是具备 特定能力 的智能体(Agent),甚至能自主完成复杂任务。
DeepResearch:不是普通 LLM,而是一个能自主搜索的研究型 AI
很多人对 OpenAI 的 DeepResearch 有误解,以为它只是 OpenAI-3(O3)上的一个“搜索插件”。但事实远非如此。
OpenAI 直接训练了一个全新的模型,这个模型能够 在内部执行搜索任务,完全不依赖外部 API 调用、提示词或编排工具。
DeepResearch 的核心能力:
- 学会了网页浏览的基本技能(搜索、点击、滚动、解析文件);
- 能够自主思考,从大量网站中提炼关键信息;
- 通过强化学习,训练自己撰写详细、结构清晰的报告。
相比之下,Google Gemini 和 Perplexity AI 也推出了类似的“深度搜索”功能,但它们更像是在普通 LLM 上加了一层搜索 API,缺乏真正的搜索优化和定量评估。
DeepResearch 不是一个普通的聊天机器人,而是一个能自主执行搜索任务的 AI。它能够提供带有逻辑结构、来源分析的长篇报告,而不只是单纯的“问答式”互动。
智能体(Agent)vs. 传统工作流(Workflow)
Anthropic 最近对“智能体模型(Agent Model)”提出了一个新定义,虽然有争议,但很有道理。
智能体(Agent)= 能够在内部自主执行任务的 AI
相比之下,许多当前市场上的“AI 智能体”其实只是工作流系统(Workflow),本质上是通过代码逻辑把 LLM 和各种工具串联起来,比如:
- 先用 LLM 解析任务
- 然后调用搜索 API 获取数据
- 再让 LLM 生成报告
这样的工作流 并不是真正的智能体,而是用 AI 拼接出的自动化流程。虽然它们可以为特定行业提供价值,但大多数 AI 研究人员都很清楚:要真正提升 AI 自主性,必须重新设计模型本身,而不是靠外部工具补丁。
Claude 3.7 就是一个很好的例子。它被专门训练用于 复杂的代码任务,因此在 SWE(软件工程)基准测试中表现大幅提升,比传统 LLM+工具的方式更高效。
自动化 RAG:下一步 AI 发展的关键?
目前,很多企业在探索如何改进 RAG(检索增强生成,Retrieval-Augmented Generation),但现有方案往往是拼凑的流程:
- 路由(选择最佳数据源)
- 分块(将长文本切片)
- 重新排序(找到最相关的信息)
- 查询解析(优化搜索查询)
- 查询扩展(补充缺失信息)
- 上下文注入(将数据传递给 LLM)
- 搜索优化(改进搜索策略)
这个流程太复杂,且环节之间相互依赖,稍有改动就可能导致整个系统不稳定。
如果我们能将这一切整合到 两个专门训练的模型 里,一个负责数据准备,一个负责搜索、检索和报告生成,那么 RAG 也可以变得更加高效、可靠。这需要新的训练管道、强化学习奖励机制,甚至全新的 AI 训练方法,但它也可能成为 AI 进化的重要一步。
未来的趋势:AI 复杂度向模型训练端转移
这意味着什么?简单来说,未来 AI 系统的复杂性将主要体现在训练阶段,而非部署阶段。
- 过去,AI 需要通过大量的工作流和外部工具来弥补模型能力的不足;
- 未来,AI 直接在训练阶段就掌握这些能力,使得实际部署更简单、更高效。
在这个过程中,最大的价值将不再由“谁的 API 更强”决定,而是 谁能训练出更智能、更强大的模型。换句话说,模型提供商(如 OpenAI、Anthropic)将占据更多的市场价值,而不是应用层公司。
Claude 3.7、DeepResearch 只是这一趋势的开始,未来 AI 可能会变得越来越“自主”,真正接近我们期待中的“智能体”。
强化学习被低估了,AI 投资逻辑正在崩塌
当前的 AI 投资格局正面临一个严重的误判,特别是在强化学习(RL)方面的价值定价上。现在,大部分风投基金的决策,都是基于以下几条假设:
- 真正的价值在应用层,而不是模型层——换句话说,他们相信模型只是“基础设施”,应用层才是最具颠覆性的市场。
- 模型公司会不断降低 API 成本,使 Wrappers(基于大模型 API 搭建的产品)更具盈利空间。
- 即使在监管严格的行业,封闭模型的 API 也足以满足所有需求。
- 任何形式的训练(不仅仅是预训练,还包括微调、强化学习等)都是浪费时间。
但现实已经证明,这种投资逻辑完全跟不上 AI 技术的发展速度,尤其是强化学习(RL)的突破。
风险投资的失败:AI 训练能力未被正确估值
风投的核心逻辑是 寻找“不相关的投资”,确保在市场下行时,仍有部分投资能带来回报。然而,当前 AI 投资的格局却高度一致,几乎所有资金都涌入了基于大模型 API 的应用层,而忽视了 AI 训练的真正价值。
但大模型的真正突破,已经开始发生在训练阶段,而不是 API 交付阶段。
"模型训练本应是 textbook 级别的完美投资案例,尤其是在西方经济即将进入衰退的情况下。" ——换句话说,AI 训练是一种高潜力的颠覆性技术,尤其在宏观经济疲软的时候,仍能带来创新驱动的增长。
但讽刺的是,即使是最有前景的 AI 训练公司,也难以筹集资金。例如:
- Prime Intellect,一家在西方 AI 训练领域极具潜力的新兴公司,甚至训练了第一个去中心化 LLM,但融资规模仍然和 API Wrappers 差不多。
- 除了 OpenAI 和 Anthropic,整个西方 AI 训练生态都极其脆弱。你甚至可以用一只手数清所有主要的 AI 训练团队:
- Prime Intellect
- Moondream
- Arcee
- Nous
- Pleias
- Jina
- Hugging Face 预训练团队(其实规模很小)
- Allen AI, Eleuther 以及少数学术机构
在欧洲,目前有 7-8 个 LLM 训练项目正在集成 Common Corpus(Pleias 开发的数据集),其他项目则依赖 FineWeb 或 Nous/Arcee 的指令微调集。
这说明,西方 AI 训练的基础设施极其薄弱,而整个市场也未能正确估值训练能力的价值。
大模型实验室的新策略:不再卖 API,而是直接扶持训练合作伙伴
就连 OpenAI 也意识到了这个问题。最近,硅谷的创业生态开始出现一种不满的情绪,尤其是对当前 AI 初创公司缺乏“垂直强化学习”(Vertical RL)的抱怨。这一信号,可能直接来自 Sam Altman。
下一步的投资调整,很可能是:
- YC(Y Combinator)等机构,将不再优先投资 API Wrappers,而是寻找有 AI 训练能力的公司。
- 大模型实验室的“首选合作伙伴”将不再是 API 购买者,而是能参与早期训练的“合作承包商”。
这一策略变化的原因很简单:
- 过去两年,搜索、代码等领域已经完成了 LLM 驱动的变革,市场接近成熟,部署新产品的门槛变低。
- 但未来最有价值的 AI 应用,仍处于早期研发阶段,比如替代传统的规则系统(rule-based systems),这些系统目前仍主导着世界经济的大部分领域。
- 小型、专注的 AI 训练团队,可能是最有能力解决这些问题的“特种部队”,最终成为大模型公司的收购目标(acquihire)。
换句话说,未来的 AI 竞争可能出现 两条不同的路径:
- 大模型公司收购专门的训练团队,让 AI 深入垂直领域。
- 部分应用层公司获得大模型的“优先 API 访问权”,但前提是它们必须成为潜在的商业并购对象。
中国的 DeepSeek 已经走到了下一步
目前,我还没有提到 DeepSeek 或中国的大模型实验室,因为 DeepSeek 已经超越了“模型即产品”的概念,而在打造 AI 的基础设施层。
DeepSeek CEO 梁文峰的观点很明确:
"现在的阶段是技术创新的爆发,而不是应用的爆发。" "如果完整的上游和下游产业生态形成,我们就不需要自己做应用了。" "当然,如果需要,我们也可以做应用,但我们的首要目标永远是研究和技术创新。"
这说明,DeepSeek 关注的不是“API 经济”,而是“AI 基础设施的掌控权”。
相比之下,西方许多投资者仍然沉迷于“上一次 AI 产业战役”,他们仍然相信 API 经济模式会主导未来,而忽视了模型训练和基础设施才是核心价值所在。
结论:AI 训练将成为真正的价值中心
- 强化学习(RL)正在成为 AI 训练的核心突破点,但市场尚未正确估值其重要性。
- 大模型公司正在远离 API 经济,转向控制完整的 AI 训练和应用生态。
- 西方的 AI 训练生态仍然很脆弱,而中国的 DeepSeek 已经领先一步,将 AI 视为基础设施层,而非单纯的应用层。
- 未来的 AI 竞争将围绕“谁能控制训练流程”展开,而不是 API 交付。
如果模型才是产品,那么你必须参与构建它,而不仅仅是调用它。