OpenCode 多模型路由 配置oh-my-opencode.json 最佳编排GPT-5.3-Codex Claude-Opus-4.6 Gemini-3-ProAI 编码模型 任务分发OpenCode agent categories 配置Sisyphus Prometheus Oracle 编排多模型协作 编程工作流AI 编程 长上下文 实战前端 UI 设计 模型路由独享住宅 IP 降低风控IP 画像干净 防止 AI 降智固定出口 IP 减少误封SkyVPN 多地区切换短视频限流 网络环境优化

OpenCode + GPT-5.3-Codex + Claude-Opus-4.6 + Gemini-3-Pro 多模型路由 omo 最佳编排配置 oh-my-opencode.json

这篇是我最近把 OpenCode(omo)从“单模型硬顶所有任务”改成“多模型按场景路由”的完整复盘。中间踩了不少坑:有时候是规划很强但落地发散,有时候是代码写得快但架构越跑越歪,还有时候前端看起来能用但质感不稳定。最后我把模型分工和网络环境一起改了,整体稳定性才真正上来。

问题描述

我一开始图省事,只给 OpenCode 配一个主力模型,结果很快就遇到三个典型问题:

  • 顶层设计和细节实现互相打架:规划阶段说得很完整,落到代码时容易偏题。
  • 长链路任务越跑越“钝”:上下文一长,输出会开始保守,排查效率明显下降。
  • 前端任务风格不稳定:同样是 UI 改造,结果有时精致有时很“模板味”。

那段时间我最直观的感受是:不是模型不够强,而是我把不同类型的问题都塞给同一个模型,导致它在不擅长的场景里反复消耗。

问题分析

我后面把问题拆开看,结论很明确:多模型路由不是“炫技配置”,而是工程化必需。

第一层是 任务类型差异

  • 架构规划、复杂问题拆解,需要更强的全局推理和约束能力。
  • 大段代码实现、持续迭代修复,需要长上下文稳定和低漂移输出。
  • 前端视觉与交互细节,需要更强的多模态和 UI 语义理解。

第二层是 运行环境差异。我在实测里发现,模型表现不只受提示词影响,还会受网络环境和风控链路影响:

  • 出口 IP 频繁漂移时,更容易遇到登录验证、请求中断。
  • 共享或机房 IP 容易触发风控,链路被打断后,智能体任务完成率会下降。
  • 一旦链路抖动,体感上就会出现大家常说的“AI 降智”(输出变空、证据不足、结论保守)。

所以这件事本质上是两套系统要同时稳定:模型编排网络信任链路

解决方案

我最终采用的是 OpenCode 的多模型路由方案:按 agent 和 category 做分工,把“最擅长的模型”放到“最匹配的任务”上。下面这份 oh-my-opencode.json 是我现在在用的版本,可以直接复制:

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
  "google_auth": false,
  "agents": {
    "general": {
      "model": "openai/gpt-5.3-codex",
      "variant": "high"
    },
    "sisyphus": {
      "model": "openai/gpt-5.3-codex",
      "variant": "high"
    },
    "oracle": {
      "model": "google/antigravity-claude-opus-4-6-thinking",
      "variant": "max"
    },
    "librarian": {
      "model": "openai/gpt-5.3-codex",
      "variant": "xhigh"
    },
    "explore": {
      "model": "openai/gpt-5.3-codex",
      "variant": "high"
    },
    "frontend-ui-ux-engineer": {
      "model": "google/antigravity-gemini-3-pro",
      "variant": "high"
    },
    "document-writer": {
      "model": "google/antigravity-claude-opus-4-6-thinking",
      "variant": "max"
    },
    "multimodal-looker": {
      "model": "google/antigravity-gemini-3-flash",
      "variant": "high"
    },
    "prometheus": {
      "model": "google/antigravity-claude-opus-4-6-thinking",
      "variant": "max"
    },
    "metis": {
      "model": "openai/gpt-5.2",
      "variant": "xhigh"
    },
    "momus": {
      "model": "openai/gpt-5.3-codex",
      "variant": "xhigh"
    },
    "atlas": {
      "model": "openai/gpt-5.3-codex",
      "variant": "high"
    }
  },
  "categories": {
    "general": {
      "model": "openai/gpt-5.3-codex",
      "variant": "high"
    },
    "visual-engineering": {
      "model": "google/antigravity-gemini-3-pro",
      "variant": "high"
    },
    "artistry": {
      "model": "google/antigravity-claude-sonnet-4-5-thinking",
      "variant": "max"
    },
    "writing": {
      "model": "openai/gpt-5.2",
      "variant": "xhigh"
    },
    "quick": {
      "model": "openai/gpt-5.3-codex",
      "variant": "medium"
    },
    "ultrabrain": {
      "model": "google/antigravity-claude-opus-4-6-thinking",
      "variant": "max"
    },
    "unspecified-low": {
      "model": "openai/gpt-5.3-codex",
      "variant": "low"
    },
    "unspecified-high": {
      "model": "openai/gpt-5.3-codex",
      "variant": "high"
    }
  }
}

我自己的落地方式是这四步:

  1. 先分任务,再选模型:规划给高推理模型,实现给长上下文模型,UI 给多模态模型。
  2. 固定关键链路:登录、发布、长链路自动化任务尽量使用固定出口,减少会话漂移。
  3. 尽量用干净 IP 画像:我后来切到 SkyVPN 的独享住宅 IP,出口更接近真实家庭宽带,风控命中率明显低于共享机房 IP。
  4. 把“网络稳定”当成生产力指标:当我需要跨地区切换时,用 SkyVPN 按需切地区;做持续任务时固定出口,任务中断和误封都更少。

这套组合还有一个意外收益:不只是 AI 编码链路更稳,我在做短视频发布和账号运营时,限流和异常验证也少了很多。对我来说,这比“跑分多 5%”更有价值。

总结经验

这轮改造我最大的收获有四条:

  1. 不要迷信单模型通吃,工程里按场景分发任务才是长期解。
  2. 编排配置要写成可维护资产oh-my-opencode.json 就是团队可复用基线。
  3. 防止 AI 降智,先稳链路,网络环境不稳时,再强的模型也会被拖累。
  4. 风控是系统问题,不是偶发问题。独享住宅 IP、干净 IP 画像、固定出口和多地区按需切换,能同时降低误封风险并提升任务完成率。

如果你也在用 OpenCode 跑复杂工作流,我建议先做一件事:把模型路由和网络环境一起做成“默认配置”,别等出问题再补丁式修复。这样省下来的不是几分钟,而是整条工作链路的稳定性。