DevTk.AI
GPT-5.5CodexOpenAIDeepSeek V4API 定价

GPT-5.5 在 Codex 中怎么收费:API 价格、模型 ID 与 DeepSeek 路由

2026年4月更新。GPT-5.5 已进入 Codex 和 API,价格 $5/$30 每百万 token,缓存命中输入 $0.50。对比 GPT-5.2-Codex、GPT-5.5 Pro 与 DeepSeek V4 Flash 的真实路由成本。

DevTk.AI 2026-04-28 更新于 2026-04-28 6 分钟阅读

OpenAI 现在把 GPT-5.5 定位为复杂编程和专业工作的前沿模型,并且 GPT-5.5 已经可以在 Codex 中使用。API 里的模型 ID 是 gpt-5.5。如果你要调用单独的 Codex API 模型,当前公开可查的模型 ID 是 gpt-5.2-codex,不是 gpt-5.5-codex

官方参考:OpenAI GPT-5.5 模型文档GPT-5.5 Pro 文档GPT-5.2-Codex 文档DeepSeek V4 价格

当前 OpenAI 编程模型价格

模型API model ID输入缓存命中输入输出上下文最大输出适合场景
GPT-5.5gpt-5.5$5.00$0.50$30.001.05M128K困难编程、Review、架构设计
GPT-5.5 Progpt-5.5-pro$30.00-$180.001.05M128K最高精度专业任务
GPT-5.2-Codexgpt-5.2-codex$1.75$0.175$14.00400K128KCodex 类长程 Agent 编程
GPT-5.4gpt-5.4$2.50$0.25$15.001M128K更便宜的 OpenAI 专业工作

GPT-5.5 还有长上下文价格:当输入超过 272K token 时,整段会按 $10/M 输入、$1/M 缓存命中输入、$45/M 输出计费。

和 DeepSeek V4 对比

如果目标是提高站点流量、服务更多高频 Agent 请求,DeepSeek V4 Flash 的权重应该更高。

模型缓存未命中输入缓存命中输入输出上下文实际定位
DeepSeek V4 Flash$0.14$0.0028$0.281M默认低成本 Agent 流量
DeepSeek V4 Pro$0.435$0.003625$0.871M打折中的强模型路由
GPT-5.2-Codex$1.75$0.175$14.00400KOpenAI 编程专用升级路由
GPT-5.5$5.00$0.50$30.001.05M前沿能力升级路由

如果编程 Agent 反复发送同一份仓库上下文,DeepSeek 的缓存命中价格会把账单压得很低。一个 1000 万 token 的任务,假设 90% 是缓存命中输入、5% 是缓存未命中输入、5% 是输出:

DeepSeek V4 Flash = 900万 * $0.0028 + 50万 * $0.14 + 50万 * $0.28 = $0.235
GPT-5.2-Codex      = 900万 * $0.175  + 50万 * $1.75 + 50万 * $14  = $9.45
GPT-5.5            = 900万 * $0.50   + 50万 * $5.00 + 50万 * $30  = $22.00

换成 DeepSeek 国内人民币价格,同样的结构约为 ¥1.68,所以你同事昨天到今天 1000 万 token 只花两块多是合理的:核心原因通常是缓存命中率高、输出占比低。

推荐路由权重

不要把 Codex 或 GPT-5.5 作为默认高流量模型。更合理的方式是 DeepSeek 承接大部分低成本迭代,再把少量复杂任务升级到 OpenAI/Claude。

routing_config = {
    "deepseek":        {"model": "deepseek-v4-flash", "weight": 45},
    "gemini_flash":    {"model": "gemini-2.5-flash",  "weight": 25},
    "openai_codex":    {"model": "gpt-5.2-codex",     "weight": 15},
    "openai_frontier": {"model": "gpt-5.5",           "weight": 10},
    "anthropic":       {"model": "claude-sonnet-4-6", "weight": 5},
}

gpt-5.5 适合困难推理、多文件设计、安全审查和高风险正确性任务。gpt-5.2-codex 适合明确需要 OpenAI Codex API 行为的长程编程任务。DeepSeek V4 Flash 适合便宜迭代、读取仓库、修测试、跑 lint/test-fix 循环和重复上下文。

怎么选

任务默认选择什么时候升级
反复读取仓库上下文DeepSeek V4 Flash需要最终高置信 Review
修测试 / lint 循环DeepSeek V4 Flash连续 2-3 次卡住
大型架构重构GPT-5.2-Codex 或 GPT-5.5质量或安全要求高
最终 PR ReviewGPT-5.5极高风险才用 GPT-5.5 Pro
国内低成本 Agent 工作流DeepSeek V4 Flash需要跨模型校验

结论

DeepSeek 权重应该更高,因为高缓存命中时真实成本非常低。GPT-5.5 是 Codex/OpenAI 的高端升级模型,不适合承担默认大流量。

你可以用 AI 模型价格计算器 计算自己的用量;如果主要是重复上下文的 Agent 工作流,先看 DeepSeek V4 API 价格指南

相关文章