作者:Theo Park13 分钟阅读OpenRouter, LLM Gateway, Comparison, LiteLLM, Portkey, Vercel AI Gateway

2026 OpenRouter 替代方案对比:面向生产环境的客观评估

对比 OpenRouter 主流替代品(LiteLLM、Portkey、Vercel AI Gateway、Helicone、Bifrost、Eden AI、OminiGate)的加价比例、模型覆盖、协议兼容与治理能力,每个数据点 cite 来源。

OpenRouter 是 LLM 统一接入的代名词,但已不再是唯一选择。本文按平台团队的视角评估七家 网关:加价、协议兼容、模型覆盖、治理能力、自建 vs SaaS。下面每个非琐碎的事实都给了 来源链接 —— 一个数字都不靠记忆。

方法论。每家候选我们都核对了官方定价页 / 产品文档、GitHub 仓库(开源者) 以及至少一个独立第三方资料。截至 2026 年 4 月 28 日,凡在权威来源里找不到的数据点直接 标注“未公开”,绝不补脑。OminiGate 是候选之一,本文用与其他候选完全一致的中性口径描述。

为什么团队会看 OpenRouter 之外的选项

OpenRouter 开创了“一把 Key、多家模型”的范式,至今仍是 LLM 聚合器的参考实现。 在比较其他候选之前,有两条事实需要先理清。

  • OpenRouter 不在推理价格上加价。官方 FAQ 原文:“我们直接透传上游 供应商的价格,不在推理上加任何 markup。”外界常说的“5% 加价”指的不是这一项。
  • 费用收在充值环节。2025 年 6 月 9 日起,非加密支付按订单金额收 5.5%(最低 $0.80),加密货币支付固定 5%。BYOK 模式下每月 100 万 请求免费,超出后按对应模型在 OpenRouter 价格的 5% 收费,官方表示后续会改为统一月费。
  • App 归因头 HTTP-RefererX-Title 调用本身不 强制,但若想出现在 OpenRouter 排行榜则必须设置。

所以“离开 OpenRouter”的真实理由通常是其中之一:(1)规模化后充值费不可接受; (2)想要自建可观测性与 Key 治理;(3)需要原生 Anthropic Messages 端点,让官方 Anthropic SDK 一行不改即可工作;(4)想把图像与视频模型与文本统一到同一份账单上。

评估维度

我们用六个维度评估每家候选。本文不打分 —— 合适的网关取决于你的栈和团队,不取决于一张排行榜。

  • 加价模式。是按 token 抽成、按调用次数收费、充值手续费、月度订阅, 还是完全免费?
  • 协议兼容。是否同时暴露 OpenAI 的 /v1/chat/completions 与 Anthropic 的 /v1/messages,让现有 SDK 不改代码就能切换?
  • 模型覆盖。仅文本,还是同一份网关也提供图像、视频?
  • 部署形态。SaaS 托管、自建私有部署,还是两者都行?
  • 治理能力。每个 Key 的预算上限、Rate Limit、RBAC、审计日志、SSO。
  • 可观测性。开箱即用的链路追踪、成本归因、Dashboard。

候选评估

LiteLLM

LiteLLM是该赛道下最火的开源代理。 仓库主打“一个 OpenAI 兼容接口接 100+ 供应商”,文档明确给出原生 Anthropic 格式端点 /v1/messages —— 官方 Anthropic SDK 只需改 base_url 即可调用。支持的端点包括 /chat/completions/messages/responses/embeddings/images/audio 等。

许可证主体为 MIT,enterprise/ 目录单独走商业许可,控制 SSO、RBAC、审计日志、 优先支持等企业能力。LiteLLM 没有自家托管 SaaS 形态 —— Proxy 由你自己运行,凭据与可观测 体系也由你自己运维。

Portkey

Portkey把自己定位为“生产级 AI 的控制台”。 免费 Developer 档每月 10,000 条日志、保留 3 天。第一付费档 $49/月,含 10 万 条日志,超出后每 10 万 $9(最高到 300 万),同时附加告警、无限 Prompt 模板、Guardrails、 语义缓存等。Enterprise 自定报价,覆盖 SOC 2 / HIPAA / VPC。

网关本身开源,路由 200+ LLM、内置 50+ Guardrails。Anthropic Messages 协议通过代理层支持 —— Claude Code 用户把 ANTHROPIC_BASE_URL 指向 Portkey 即可。Portkey 的核心卖点是治理,不是路由 本身。

Vercel AI Gateway

Vercel AI Gateway于 2025 年 8 月 正式 GA,是定价上最激进的一家。定价页原文:“AI Gateway 采用 pay-as-you-go 模式, 不加任何 markup”以及“若你使用自有 API Key,AI Gateway 不收任何 markup 或 费用。”每个 Vercel team 每月赠送 $5 信用。

Vercel 同时提供 OpenAI 兼容接口与 Anthropic 兼容端点,Anthropic SDK 与 Claude Code 通过 base URL 切换即可工作。模型覆盖以主流 hyperscaler 为主,重点不在长尾,而是与 Vercel AI SDK v5 的深度集成。业界普遍认为正是 Vercel 的入场, 逼出了 OpenRouter 在 2025 年的费用简化。

Helicone

Helicone(YC W23)起家于 LLM 可观测性,目前演进出 Rust 编写、Apache 2.0 许可的 开源 AI Gateway。网关本身 0% markup,营收来自云端可观测性套餐。免费档每月 10,000 请求 + 1 个月留存; Pro $79/月;Team $799/月;Enterprise 自定,包含本地部署与 SAML SSO。

网关是单二进制,宣称 P50 延迟低于 10ms,提供自动 failover、GCRA Rate Limit、边缘缓存。 OpenAI 兼容接口接 100+ 供应商,可观测性默认全链路接好。

Bifrost

Maxim AI 出品的 Bifrost 是最新入局且最以 性能为卖点的一家。Apache 2.0 许可、Go 语言写的二进制,宣称在 5,000 RPS 持续负载下网关 开销 11 微秒。统一 15+ 供应商到一个 OpenAI 兼容 API,Anthropic / OpenAI 等 SDK 通过 base URL 替换接入(http://localhost:8080/anthropic)。

Bifrost 真正超出“路由代理”的地方是它把 MCP 当一等公民:完整 Model Context Protocol 规范,覆盖 STDIO、HTTP、SSE 三种传输,支持 Agent 模式、Code 模式与工具托管。 Per-team / per-key 预算、审计日志、SSO 都开箱即有。无托管 SaaS —— 一条 npx 命令或 Docker 自托管。

Eden AI

Eden AI 更像一个多模态 SaaS Hub,而不是纯 LLM 网关。除了 500+ 语言模型,它还以同一份 API 提供 OCR、文档解析、翻译等专家 AI 能力。定价是 供应商挂牌价 + 充值环节 5.5% 平台费 —— 与 OpenRouter 非加密充值费率一模一样。

如果你要“把所有 AI 收口到一份账单”(不仅仅是 LLM),Eden 是最自然的选择。 如果你只做文本生成,它会是过度抽象的层。

OminiGate

OminiGate(本站)是统一 LLM 网关,覆盖文本、图像、视频共 400+ 模型,按 token / 按调用预扣 余额,无月费。OpenAI 兼容 base 是 https://api.ominigate.ai/v1,承载 /v1/chat/completions 与图像 / 视频端点;Anthropic 兼容 base 是 https://api.ominigate.ai(SDK 自动追加 /v1/messages)。 API Key 前缀 sk-omg-

OminiGate 仅 SaaS,不提供自建发行版。治理目前覆盖每个 Key 的支出上限、Rate Limit 与 管理员侧审计;SAML SSO、本地部署等企业能力尚未上线。图像与视频走独立端点 (/v1/images/.../v1/videos/...)—— 不能在一次 chat-completions 调用里返回图像或视频,多模态项目按端点拆分调用,而不是依赖一个“万能”请求。

横向对比

把下面这张矩阵当作“指纹”读,不是判决。 “0% markup”旁边坐着“$799/月可观测”并不意味着省钱 —— 不过是把 同样的成本挪到了另一张账单。

  • OpenRouter —— 充值费 5.5%(加密 5%),推理无 markup;OpenAI / Anthropic 双兼容;400+ 文本 / 图像 / 视频模型;仅 SaaS。
  • LiteLLM —— 0% markup;MIT(enterprise 目录单独许可);仅自建;OpenAI + Anthropic + Responses + Embeddings + Images + Audio 全部端点;GitHub 约 45k star; Enterprise 版补齐治理。
  • Portkey —— 0% markup;网关 Apache 开源;免费档 10k 日志 / 月;起步档 $49/月;200+ LLM;OpenAI + Anthropic 兼容;SaaS / 自建均可;RBAC、SSO 在付费档。
  • Vercel AI Gateway —— 0% markup(含 BYOK);每月 $5 免费信用;OpenAI + Anthropic 兼容;2025 年 8 月 GA;仅 SaaS;与 Vercel AI SDK v5 深度集成。
  • Helicone —— 网关 0% markup(Apache 2.0、Rust);可观测 Pro $79/月; 100+ 供应商;OpenAI 兼容;P50 低于 10ms;自建 / SaaS 双轨。
  • Bifrost —— 0% markup;Apache 2.0;Go;5k RPS 下 11μs 开销;OpenAI 兼容 + 通过 base URL 替换接入 Anthropic SDK;完整 MCP 网关;仅自建;15+ 供应商。
  • Eden AI —— 充值平台费 5.5%;500+ 模型 + OCR / 翻译 / 文档 AI;仅 SaaS。
  • OminiGate —— 按 token / 按调用预扣余额,无订阅;400+ 文本 + 图像 + 视频; OpenAI + Anthropic 双兼容;仅 SaaS;每 Key 支出上限与 Rate Limit。

按场景选型

已有自家 Key、要把额外费用压到最低

Vercel AI Gateway 与 Helicone 都明确标注 BYOK 0% markup。已经在用 Vercel 的团队,AI Gateway 是阻力最小的路径;想要自建可观测又同时拥有托管 Dashboard 的团队,Helicone 的 双形态可以一家解决。

需要自建 + 严肃治理

LiteLLM、Portkey、Bifrost、Helicone 都给出了自建路径。LiteLLM 的供应商目录最全、社区 最大;Portkey 的企业能力开箱最完整;Bifrost 是高 RPS 下最快的,也是唯一把 MCP 当一等 公民的;Helicone 是体量最轻的二进制,也是可观测性最原生的。

同一份账单覆盖文本 + 图像 + 视频

OpenRouter 与 OminiGate 都把图像、视频与文本一起服务。OpenRouter 的长尾目录更宽; OminiGate 把图像、视频做成独立端点而不是塞进 chat-completions。如果工作负载真正多模态 且超出生成本身(例如要做 OCR、翻译),Eden AI 在这个区间往外延伸得更远。

想让 Anthropic SDK 一行不改就能工作

LiteLLM、Vercel AI Gateway、Portkey、OpenRouter、OminiGate 都暴露 Anthropic 兼容的 /v1/messages 路径,官方 SDK 只需切 base URL。Bifrost 通过 base URL 替换提供 Anthropic SDK 的 drop-in 支持,但关于 Messages 协议完整对齐(Tool Use、流式、Vision) 的文档说明较薄 —— 上线前请先验证你需要的具体特性。

在做 MCP 与工具调用密集的 Agent 系统

在本文候选中,只有 Bifrost 把 MCP 三种传输(STDIO / HTTP / SSE)作为一等能力直接发布。 如果你的 Agent 流水线就是 MCP 形态,这一点的份量超过单纯的“接得多”。


OpenRouter 仍然是“给我一把 Key”场景下最稳妥的默认。上述候选各自在不同维度 胜出:BYOK 零加价(Vercel)、自建 + 完整企业治理(Portkey、LiteLLM)、纯性能与 MCP (Bifrost)、可观测性即产品(Helicone)、非 LLM 能力覆盖(Eden)、多模态生成统一余额 (OminiGate)。“选哪一个”的答案,取决于你团队最在意的那一根轴。

参考来源

常见问题

OpenRouter 真的对每次推理加 5% 吗?

不会。OpenRouter FAQ 明确说推理价格直接透传上游、不加 markup。常被引用的 5%/5.5% 是充值环节费率(加密 5%、非加密 5.5%,最低 $0.80),2025 年 6 月 9 日起生效。另有 BYOK 模式下每月 100 万请求以上按 5% 计费,官方表示后续会改成统一月度订阅。

哪些替代品能让官方 Anthropic SDK 不改代码就工作?

LiteLLM 暴露 /v1/messages,把 Anthropic SDK 的 base URL 指向 Proxy 即可使用。Vercel AI Gateway 提供 Anthropic 兼容 API,Claude Code 与 Anthropic SDK 通过 base URL 切换即可工作。Portkey 通过 ANTHROPIC_BASE_URL 支持。OpenRouter 与 OminiGate 也都讲 Messages 协议。Bifrost 提供 Anthropic SDK 的 drop-in base URL 支持,但关于 Messages 协议完整对齐的说明较薄 —— 上线前先验证 Tool Use、流式、Vision 等具体特性。

哪些选项真的连 BYOK 都不加价?

Vercel AI Gateway 定价页明确写:使用自有 Key 时“AI Gateway 不收任何 markup 或费用”,整体也是 pay-as-you-go 无加价。Helicone 的开源 AI Gateway 本身免费、0% markup,只在你选用云端可观测性时才付订阅费。LiteLLM、Bifrost 仅自建,不在供应商价格上加任何费 —— 你付的是基础设施与运维成本。

图像和视频模型能与文本一起接入同一份网关吗?

OpenRouter、OminiGate、Eden AI 都把图像与视频和文本放在同一份网关。OpenRouter 长尾目录最广。OminiGate 把图像 / 视频做成独立端点(/v1/images/...、/v1/videos/...),不会在 chat-completions 里塞图像 —— 单次 chat 调用不会返回图像。Eden AI 延伸到 OCR、翻译等非 LLM 能力。纯 LLM 网关(LiteLLM、Portkey、Vercel、Helicone、Bifrost)以文本与工具调用为主,部分支持图像 / 音频,但不是主打场景。

如果我需要自建 + 严肃治理,应该选哪个?

LiteLLM 供应商目录最全、社区最大(约 45k star),SSO、RBAC、审计日志在 Enterprise 版。Portkey 的开源网关 + 付费档把企业能力(RBAC、细粒度预算、SOC 2)打包得最齐。Bifrost 在高 RPS 下最快,且是唯一把 MCP 当一等公民发布的。Helicone 是体量最轻的二进制,也是可观测性最原生的。按团队最在意的那根轴选 —— 没有单一“最佳”。

用一把 API Key 调用全部模型

几秒完成注册,一次充值即可访问 400+ 文本、图像与视频模型,继续使用熟悉的 OpenAI 与 Anthropic SDK。