一个 7B 小模型,学会了指挥 GPT-5、Claude 和 Gemini
AI 调度 AI。听起来像科幻,但这件事已经发生了。 日本 AI 实验室 Sakana 训练了一个 7B 参数的小模型——Conductor(指挥家)。 它的工作不是解题,而是把题目分给对的 AI 来做。 结果比任何一个被它调度的大模型都好。 这件事有多反直觉 先放数据感受一下。 Conductor 调度 GPT-5、Gemini、Claude 及多个开源模型组成的"团队",在两个顶级基准上的成绩: LiveCodeBench(代码能力):83.9% GPQA-Diamond(博士级科学问答):87.5% 这两个数字超越了它调度的每一个单独模型。 包括 GPT-5。 一个 7B 的小模型,通过"分配任务",打赢了万亿参数级别的大模型。 这篇论文被 ICLR 2026 接受,arXiv: 2512.04388。 Conductor 是怎么工作的 不是简单的"选一个模型来回答",而是用自然语言动态生成协作流程。 对于一个问题,Conductor 会输出: 叫哪个 Agent 来做 给它什么具体子任务(相当于精心设计的 prompt) 它能看到哪些之前的对话信息 然后不同 Agent 依次或并行工作,Conductor 收到结果后判断够不够,不够就继续派任务。 最聪明的设计:Conductor 可以把自己选进 worker 池。 也就是说,它可以读到整个团队之前的输出,判断失败了,然后重新设计一套流程来纠错。这是一种递归的推理能力——在推理阶段自己扩展自己的计算量。 为什么用强化学习训练,而不是指令微调 传统方法是给模型示范"好的调度长什么样",让它学着做。 Sakana 的做法是:直接给它最终任务的奖励,让它自己摸索出怎么分配才能赢。 这一点非常关键。 指令微调学的是人设计的流程,上限就是人能想到的最好的方案。强化学习学的是目标本身,模型可以发现人没想到的调度策略。 论文中记录的一个涌现行为就是这样来的:Conductor 自己发明了"计划者-执行者-验证者"流水线——没人告诉它这么做,它从奖励信号里学会的。 这意味着什么 这不只是"一个有趣的研究"。 它在改变 AI 系统的成本结构。 现在构建一个复杂 AI 系统的标准做法是:买一个最强的大模型,用最强的模型跑所有任务。贵,慢,资源浪费。 Conductor 证明了另一条路:用一个懂分工的小模型,指挥一群专业模型,总成本比 Mixture-of-Agents(直接多模型融合)低得多,效果还更好。 ...