GPT-5.5 在 Codex 中怎么收费:API 价格、模型 ID 与 DeepSeek 路由
2026年4月更新。GPT-5.5 已进入 Codex 和 API,价格 $5/$30 每百万 token,缓存命中输入 $0.50。对比 GPT-5.2-Codex、GPT-5.5 Pro 与 DeepSeek V4 Flash 的真实路由成本。
OpenAI 现在把 GPT-5.5 定位为复杂编程和专业工作的前沿模型,并且 GPT-5.5 已经可以在 Codex 中使用。API 里的模型 ID 是 gpt-5.5。如果你要调用单独的 Codex API 模型,当前公开可查的模型 ID 是 gpt-5.2-codex,不是 gpt-5.5-codex。
官方参考:OpenAI GPT-5.5 模型文档、GPT-5.5 Pro 文档、GPT-5.2-Codex 文档 和 DeepSeek V4 价格。
当前 OpenAI 编程模型价格
| 模型 | API model ID | 输入 | 缓存命中输入 | 输出 | 上下文 | 最大输出 | 适合场景 |
|---|---|---|---|---|---|---|---|
| GPT-5.5 | gpt-5.5 | $5.00 | $0.50 | $30.00 | 1.05M | 128K | 困难编程、Review、架构设计 |
| GPT-5.5 Pro | gpt-5.5-pro | $30.00 | - | $180.00 | 1.05M | 128K | 最高精度专业任务 |
| GPT-5.2-Codex | gpt-5.2-codex | $1.75 | $0.175 | $14.00 | 400K | 128K | Codex 类长程 Agent 编程 |
| GPT-5.4 | gpt-5.4 | $2.50 | $0.25 | $15.00 | 1M | 128K | 更便宜的 OpenAI 专业工作 |
GPT-5.5 还有长上下文价格:当输入超过 272K token 时,整段会按 $10/M 输入、$1/M 缓存命中输入、$45/M 输出计费。
和 DeepSeek V4 对比
如果目标是提高站点流量、服务更多高频 Agent 请求,DeepSeek V4 Flash 的权重应该更高。
| 模型 | 缓存未命中输入 | 缓存命中输入 | 输出 | 上下文 | 实际定位 |
|---|---|---|---|---|---|
| DeepSeek V4 Flash | $0.14 | $0.0028 | $0.28 | 1M | 默认低成本 Agent 流量 |
| DeepSeek V4 Pro | $0.435 | $0.003625 | $0.87 | 1M | 打折中的强模型路由 |
| GPT-5.2-Codex | $1.75 | $0.175 | $14.00 | 400K | OpenAI 编程专用升级路由 |
| GPT-5.5 | $5.00 | $0.50 | $30.00 | 1.05M | 前沿能力升级路由 |
如果编程 Agent 反复发送同一份仓库上下文,DeepSeek 的缓存命中价格会把账单压得很低。一个 1000 万 token 的任务,假设 90% 是缓存命中输入、5% 是缓存未命中输入、5% 是输出:
DeepSeek V4 Flash = 900万 * $0.0028 + 50万 * $0.14 + 50万 * $0.28 = $0.235
GPT-5.2-Codex = 900万 * $0.175 + 50万 * $1.75 + 50万 * $14 = $9.45
GPT-5.5 = 900万 * $0.50 + 50万 * $5.00 + 50万 * $30 = $22.00
换成 DeepSeek 国内人民币价格,同样的结构约为 ¥1.68,所以你同事昨天到今天 1000 万 token 只花两块多是合理的:核心原因通常是缓存命中率高、输出占比低。
推荐路由权重
不要把 Codex 或 GPT-5.5 作为默认高流量模型。更合理的方式是 DeepSeek 承接大部分低成本迭代,再把少量复杂任务升级到 OpenAI/Claude。
routing_config = {
"deepseek": {"model": "deepseek-v4-flash", "weight": 45},
"gemini_flash": {"model": "gemini-2.5-flash", "weight": 25},
"openai_codex": {"model": "gpt-5.2-codex", "weight": 15},
"openai_frontier": {"model": "gpt-5.5", "weight": 10},
"anthropic": {"model": "claude-sonnet-4-6", "weight": 5},
}
gpt-5.5 适合困难推理、多文件设计、安全审查和高风险正确性任务。gpt-5.2-codex 适合明确需要 OpenAI Codex API 行为的长程编程任务。DeepSeek V4 Flash 适合便宜迭代、读取仓库、修测试、跑 lint/test-fix 循环和重复上下文。
怎么选
| 任务 | 默认选择 | 什么时候升级 |
|---|---|---|
| 反复读取仓库上下文 | DeepSeek V4 Flash | 需要最终高置信 Review |
| 修测试 / lint 循环 | DeepSeek V4 Flash | 连续 2-3 次卡住 |
| 大型架构重构 | GPT-5.2-Codex 或 GPT-5.5 | 质量或安全要求高 |
| 最终 PR Review | GPT-5.5 | 极高风险才用 GPT-5.5 Pro |
| 国内低成本 Agent 工作流 | DeepSeek V4 Flash | 需要跨模型校验 |
结论
DeepSeek 权重应该更高,因为高缓存命中时真实成本非常低。GPT-5.5 是 Codex/OpenAI 的高端升级模型,不适合承担默认大流量。
你可以用 AI 模型价格计算器 计算自己的用量;如果主要是重复上下文的 Agent 工作流,先看 DeepSeek V4 API 价格指南。