AI 调度 AI。听起来像科幻,但这件事已经发生了。

日本 AI 实验室 Sakana 训练了一个 7B 参数的小模型——Conductor(指挥家)。

它的工作不是解题,而是把题目分给对的 AI 来做

结果比任何一个被它调度的大模型都好。


这件事有多反直觉

先放数据感受一下。

Conductor 调度 GPT-5、Gemini、Claude 及多个开源模型组成的"团队",在两个顶级基准上的成绩:

  • LiveCodeBench(代码能力):83.9%
  • GPQA-Diamond(博士级科学问答):87.5%

这两个数字超越了它调度的每一个单独模型

包括 GPT-5。

一个 7B 的小模型,通过"分配任务",打赢了万亿参数级别的大模型。

这篇论文被 ICLR 2026 接受,arXiv: 2512.04388


Conductor 是怎么工作的

不是简单的"选一个模型来回答",而是用自然语言动态生成协作流程

对于一个问题,Conductor 会输出:

  1. 叫哪个 Agent 来做
  2. 给它什么具体子任务(相当于精心设计的 prompt)
  3. 它能看到哪些之前的对话信息

然后不同 Agent 依次或并行工作,Conductor 收到结果后判断够不够,不够就继续派任务。

最聪明的设计:Conductor 可以把自己选进 worker 池

也就是说,它可以读到整个团队之前的输出,判断失败了,然后重新设计一套流程来纠错。这是一种递归的推理能力——在推理阶段自己扩展自己的计算量。


为什么用强化学习训练,而不是指令微调

传统方法是给模型示范"好的调度长什么样",让它学着做。

Sakana 的做法是:直接给它最终任务的奖励,让它自己摸索出怎么分配才能赢。

这一点非常关键。

指令微调学的是人设计的流程,上限就是人能想到的最好的方案。强化学习学的是目标本身,模型可以发现人没想到的调度策略。

论文中记录的一个涌现行为就是这样来的:Conductor 自己发明了"计划者-执行者-验证者"流水线——没人告诉它这么做,它从奖励信号里学会的。


这意味着什么

这不只是"一个有趣的研究"。

它在改变 AI 系统的成本结构。

现在构建一个复杂 AI 系统的标准做法是:买一个最强的大模型,用最强的模型跑所有任务。贵,慢,资源浪费。

Conductor 证明了另一条路:用一个懂分工的小模型,指挥一群专业模型,总成本比 Mixture-of-Agents(直接多模型融合)低得多,效果还更好。

类比:你雇一个优秀的项目经理,让他统筹一个专家团队——比你直接让最贵的顾问做所有事情便宜,也更快。


Sakana 的下一步

这个研究直接支撑了 Sakana 的产品化系统 Sakana Fugu——基于这套多 Agent 框架的商业产品。

日本 AI 实验室,靠研究功底在大模型时代找到了自己的切入点——不卷参数规模,卷调度智能。


一句话总结

大模型时代,真正稀缺的可能不是"更大的模型",而是"更会用模型的模型"。

Conductor 是一个证明:7B 的指挥,可以让万亿参数的团队发挥出超过任何人的水平。

这条路刚开始。


研究论文:arxiv.org/abs/2512.04388 | Sakana AI,2026年4月