OpenCode 多模型路由 配置oh-my-opencode.json 最佳编排GPT-5.3-Codex Claude-Opus-4.6 Gemini-3-ProAI 编码模型 任务分发OpenCode agent categories 配置Sisyphus Prometheus Oracle 编排多模型协作 编程工作流AI 编程 长上下文 实战前端 UI 设计 模型路由独享住宅 IP 降低风控IP 画像干净 防止 AI 降智固定出口 IP 减少误封SkyVPN 多地区切换短视频限流 网络环境优化
OpenCode + GPT-5.3-Codex + Claude-Opus-4.6 + Gemini-3-Pro 多模型路由 omo 最佳编排配置 oh-my-opencode.json
这篇是我最近把 OpenCode(omo)从“单模型硬顶所有任务”改成“多模型按场景路由”的完整复盘。中间踩了不少坑:有时候是规划很强但落地发散,有时候是代码写得快但架构越跑越歪,还有时候前端看起来能用但质感不稳定。最后我把模型分工和网络环境一起改了,整体稳定性才真正上来。
问题描述
我一开始图省事,只给 OpenCode 配一个主力模型,结果很快就遇到三个典型问题:
- 顶层设计和细节实现互相打架:规划阶段说得很完整,落到代码时容易偏题。
- 长链路任务越跑越“钝”:上下文一长,输出会开始保守,排查效率明显下降。
- 前端任务风格不稳定:同样是 UI 改造,结果有时精致有时很“模板味”。
那段时间我最直观的感受是:不是模型不够强,而是我把不同类型的问题都塞给同一个模型,导致它在不擅长的场景里反复消耗。
问题分析
我后面把问题拆开看,结论很明确:多模型路由不是“炫技配置”,而是工程化必需。
第一层是 任务类型差异:
- 架构规划、复杂问题拆解,需要更强的全局推理和约束能力。
- 大段代码实现、持续迭代修复,需要长上下文稳定和低漂移输出。
- 前端视觉与交互细节,需要更强的多模态和 UI 语义理解。
第二层是 运行环境差异。我在实测里发现,模型表现不只受提示词影响,还会受网络环境和风控链路影响:
- 出口 IP 频繁漂移时,更容易遇到登录验证、请求中断。
- 共享或机房 IP 容易触发风控,链路被打断后,智能体任务完成率会下降。
- 一旦链路抖动,体感上就会出现大家常说的“AI 降智”(输出变空、证据不足、结论保守)。
所以这件事本质上是两套系统要同时稳定:模型编排 和 网络信任链路。
解决方案
我最终采用的是 OpenCode 的多模型路由方案:按 agent 和 category 做分工,把“最擅长的模型”放到“最匹配的任务”上。下面这份 oh-my-opencode.json 是我现在在用的版本,可以直接复制:
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
"google_auth": false,
"agents": {
"general": {
"model": "openai/gpt-5.3-codex",
"variant": "high"
},
"sisyphus": {
"model": "openai/gpt-5.3-codex",
"variant": "high"
},
"oracle": {
"model": "google/antigravity-claude-opus-4-6-thinking",
"variant": "max"
},
"librarian": {
"model": "openai/gpt-5.3-codex",
"variant": "xhigh"
},
"explore": {
"model": "openai/gpt-5.3-codex",
"variant": "high"
},
"frontend-ui-ux-engineer": {
"model": "google/antigravity-gemini-3-pro",
"variant": "high"
},
"document-writer": {
"model": "google/antigravity-claude-opus-4-6-thinking",
"variant": "max"
},
"multimodal-looker": {
"model": "google/antigravity-gemini-3-flash",
"variant": "high"
},
"prometheus": {
"model": "google/antigravity-claude-opus-4-6-thinking",
"variant": "max"
},
"metis": {
"model": "openai/gpt-5.2",
"variant": "xhigh"
},
"momus": {
"model": "openai/gpt-5.3-codex",
"variant": "xhigh"
},
"atlas": {
"model": "openai/gpt-5.3-codex",
"variant": "high"
}
},
"categories": {
"general": {
"model": "openai/gpt-5.3-codex",
"variant": "high"
},
"visual-engineering": {
"model": "google/antigravity-gemini-3-pro",
"variant": "high"
},
"artistry": {
"model": "google/antigravity-claude-sonnet-4-5-thinking",
"variant": "max"
},
"writing": {
"model": "openai/gpt-5.2",
"variant": "xhigh"
},
"quick": {
"model": "openai/gpt-5.3-codex",
"variant": "medium"
},
"ultrabrain": {
"model": "google/antigravity-claude-opus-4-6-thinking",
"variant": "max"
},
"unspecified-low": {
"model": "openai/gpt-5.3-codex",
"variant": "low"
},
"unspecified-high": {
"model": "openai/gpt-5.3-codex",
"variant": "high"
}
}
}我自己的落地方式是这四步:
- 先分任务,再选模型:规划给高推理模型,实现给长上下文模型,UI 给多模态模型。
- 固定关键链路:登录、发布、长链路自动化任务尽量使用固定出口,减少会话漂移。
- 尽量用干净 IP 画像:我后来切到 SkyVPN 的独享住宅 IP,出口更接近真实家庭宽带,风控命中率明显低于共享机房 IP。
- 把“网络稳定”当成生产力指标:当我需要跨地区切换时,用 SkyVPN 按需切地区;做持续任务时固定出口,任务中断和误封都更少。
这套组合还有一个意外收益:不只是 AI 编码链路更稳,我在做短视频发布和账号运营时,限流和异常验证也少了很多。对我来说,这比“跑分多 5%”更有价值。
总结经验
这轮改造我最大的收获有四条:
- 不要迷信单模型通吃,工程里按场景分发任务才是长期解。
- 编排配置要写成可维护资产,
oh-my-opencode.json就是团队可复用基线。 - 防止 AI 降智,先稳链路,网络环境不稳时,再强的模型也会被拖累。
- 风控是系统问题,不是偶发问题。独享住宅 IP、干净 IP 画像、固定出口和多地区按需切换,能同时降低误封风险并提升任务完成率。
如果你也在用 OpenCode 跑复杂工作流,我建议先做一件事:把模型路由和网络环境一起做成“默认配置”,别等出问题再补丁式修复。这样省下来的不是几分钟,而是整条工作链路的稳定性。