OpenAI API 定价 2026:GPT-5 仅 $1.25/百万 Token|全模型价格表
2026 年 OpenAI API 最新定价。GPT-5 输入 $1.25 输出 $10,GPT-4.1 $2/$8,GPT-5 Mini $0.25/$2。含批量 API 半价、与 Claude/DeepSeek/Gemini 对比、月费估算。
OpenAI 在 2026 年拥有所有 AI 厂商中最全面的模型产品线——从 $0.10/百万 token 的 GPT-4.1 Nano 到 $10/百万输出的 GPT-5 旗舰,从通用对话到专业推理,从 128K 到百万级上下文,九个模型覆盖了几乎所有使用场景。
这意味着选择空间很大,但也意味着选错模型的代价很高。用 GPT-5 处理简单分类任务,每个月可能多花几千美元;该用 o3 推理的场景却塞给 GPT-4o,输出质量又上不去。这篇文章会帮你搞清楚 OpenAI 每个模型的真实定价、各档位的适用场景,以及怎么组合使用把账单压到最低。
OpenAI 2026 完整价格表
所有价格单位:美元/百万 token(M = Million)。数据来源:OpenAI 官方定价页,更新于 2026 年 2 月。
旗舰级模型
| 模型 | 输入价格 | 输出价格 | 上下文窗口 | 最大输出 | 定位 |
|---|---|---|---|---|---|
| GPT-5 | $1.25/M | $10.00/M | 400K | 64K | 综合旗舰,多模态 |
| o3 | $2.00/M | $8.00/M | 200K | 100K | 深度推理 |
| GPT-4.1 | $2.00/M | $8.00/M | 1M | 64K | 百万上下文,代码 |
| GPT-4o | $2.50/M | $10.00/M | 128K | 16K | 多模态,向后兼容 |
GPT-5 的定价比很多人预期的要便宜。输入 $1.25 在旗舰级模型中属于最低档,和 Gemini 2.5 Pro 持平,远低于 Claude Opus 4.5 的 $5.00。400K 上下文窗口也足够处理绝大多数场景。
o3 是 OpenAI 的推理专用模型,适合数学、逻辑、代码分析等需要”深度思考”的任务。注意它会产生大量内部推理 token——实际消耗可能是可见输出的 5-10 倍。
GPT-4.1 的最大卖点是百万级上下文窗口,适合处理超长文档、大型代码仓库分析等场景。
中端模型
| 模型 | 输入价格 | 输出价格 | 上下文窗口 | 最大输出 | 定位 |
|---|---|---|---|---|---|
| o4-mini | $1.10/M | $4.40/M | 200K | 100K | 轻量推理 |
| GPT-5 Mini | $0.25/M | $2.00/M | 400K | 64K | GPT-5 精简版 |
| GPT-4.1 Mini | $0.40/M | $1.60/M | 1M | 64K | 百万上下文经济版 |
这一档是大多数生产环境的主力。GPT-5 Mini 输入只要 $0.25——比 DeepSeek V3.2 的 $0.27 还便宜,同时继承了 GPT-5 的 400K 上下文窗口。如果你的任务不需要旗舰级的极致能力,GPT-5 Mini 是 2026 年性价比最高的选择之一。
o4-mini 是轻量版推理模型,价格不到 o3 的一半,适合需要一定推理能力但对成本敏感的场景。
经济型模型
| 模型 | 输入价格 | 输出价格 | 上下文窗口 | 最大输出 | 定位 |
|---|---|---|---|---|---|
| GPT-4.1 Nano | $0.10/M | $0.40/M | 1M | 64K | 极致低价 |
| GPT-4o Mini | $0.15/M | $0.60/M | 128K | 16K | 高吞吐 |
GPT-4.1 Nano 是目前 OpenAI 最便宜的模型——输入 $0.10,输出 $0.40,比 Gemini 2.5 Flash 还便宜。适合分类、内容过滤、格式提取等高频低复杂度任务。百万级上下文是额外的加分项。
Batch API:所有模型直接半价
OpenAI 的 Batch API 对非实时任务提供 50% 折扣,24 小时内返回结果。
| 模型 | 标准输入 | 批量输入 | 标准输出 | 批量输出 |
|---|---|---|---|---|
| GPT-5 | $1.25 | $0.625 | $10.00 | $5.00 |
| GPT-4.1 | $2.00 | $1.00 | $8.00 | $4.00 |
| GPT-5 Mini | $0.25 | $0.125 | $2.00 | $1.00 |
| GPT-4.1 Nano | $0.10 | $0.05 | $0.40 | $0.20 |
适用场景:数据标注、内容批量生成、文档翻译、周报汇总、SEO 内容处理——任何不需要实时响应的任务都应该走 Batch API。GPT-4.1 Nano 批量输入只要 $0.05/百万 token,这个价格基本可以当作免费用了。
OpenAI vs Claude vs DeepSeek vs Gemini 价格对比
同级别模型横向对比:
旗舰级
| 模型 | 输入价格 | 输出价格 | 上下文 | 输入比 GPT-5 |
|---|---|---|---|---|
| GPT-5 | $1.25 | $10.00 | 400K | 基准 |
| Gemini 2.5 Pro | $1.25 | $10.00 | 1M | 持平 |
| Claude Sonnet 4.5 | $3.00 | $15.00 | 200K | 2.4x |
| Claude Opus 4.5 | $5.00 | $25.00 | 200K | 4x |
中端
| 模型 | 输入价格 | 输出价格 | 上下文 | 输入比 GPT-5 Mini |
|---|---|---|---|---|
| GPT-5 Mini | $0.25 | $2.00 | 400K | 基准 |
| DeepSeek V3.2 | $0.27 | $1.10 | 128K | 1.1x 输入 / 0.55x 输出 |
| GPT-4.1 Mini | $0.40 | $1.60 | 1M | 1.6x |
| Claude Haiku 4.5 | $1.00 | $5.00 | 200K | 4x |
关键结论:
- GPT-5 在旗舰级中价格最优——和 Gemini 2.5 Pro 并列最低价 $1.25,比 Claude Opus 4.5 便宜 4 倍
- GPT-5 Mini 输入价格比 DeepSeek V3.2 还便宜 7%($0.25 vs $0.27),但输出贵了 82%($2.00 vs $1.10)。如果你的应用输出密集,DeepSeek 更划算;输入密集型应用则 GPT-5 Mini 占优
- GPT-4.1 Nano($0.10)是全行业最低价档之一,只有 Mistral Small 3.1($0.10)能匹敌
- Claude 系列整体偏贵,但在指令跟随和创意输出上仍有优势
月度成本估算
场景 1:个人开发者
每天 10 万输入 + 5 万输出 token
| 模型 | 月费 |
|---|---|
| GPT-4.1 Nano | $0.90 |
| GPT-5 Mini | $3.75 |
| GPT-5 | $18.75 |
| DeepSeek V3.2(参考) | $2.46 |
| Claude Sonnet 4.5(参考) | $31.50 |
场景 2:初创团队
每天 100 万输入 + 50 万输出 token
| 模型 | 月费 |
|---|---|
| GPT-4.1 Nano | $9.00 |
| GPT-5 Mini | $37.50 |
| GPT-4.1 | $180 |
| GPT-5 | $187.50 |
| o3 | $180 |
| DeepSeek V3.2(参考) | $24.60 |
| Claude Sonnet 4.5(参考) | $315 |
场景 3:产品级
每天 1000 万输入 + 500 万输出 token
| 模型 | 月费 |
|---|---|
| GPT-4.1 Nano | $90 |
| GPT-5 Mini | $375 |
| GPT-4.1 | $1,800 |
| GPT-5 | $1,875 |
| DeepSeek V3.2(参考) | $246 |
| Claude Sonnet 4.5(参考) | $3,150 |
产品级场景下,GPT-4.1 Nano 和 GPT-5 Mini 的差距非常明显——$90 vs $375,差了 4 倍多。如果你的业务量大且对模型能力要求不高,Nano 的成本优势是碾压级的。
精确计算你的成本: 使用 AI 模型定价计算器。
各模型使用场景指南
OpenAI 九个模型怎么选?这是一份按场景的速查表:
| 使用场景 | 推荐模型 | 理由 |
|---|---|---|
| 通用对话、内容生成 | GPT-5 | 综合能力最强,400K 上下文 |
| 代码生成、Debug | GPT-4.1 | 百万上下文适合大代码库,代码能力强 |
| 数学推理、逻辑分析 | o3 | 专为深度推理设计,100K 最大输出 |
| 轻度推理、代码审查 | o4-mini | 推理能力 + 经济定价的平衡 |
| 高频 API 调用、聊天机器人 | GPT-5 Mini | $0.25 输入,400K 上下文 |
| 长文档处理、RAG | GPT-4.1 Mini | 百万上下文 + 经济价格 |
| 分类、过滤、格式化 | GPT-4.1 Nano | $0.10 极致低价 |
| 多模态(图像理解) | GPT-5 / GPT-4o | 支持图像输入 |
| 老项目兼容 | GPT-4o / GPT-4o Mini | 稳定、文档丰富 |
核心原则:按任务复杂度分流,不要一刀切。 大多数生产应用应该至少用两个模型——一个处理复杂请求,一个处理简单请求。按 70/30(Nano 或 Mini / GPT-5 或 4.1)分配,比全用 GPT-5 省 70% 以上。
快速上手 OpenAI API
第一步:获取 API Key
- 访问 platform.openai.com
- 注册或登录你的 OpenAI 账号
- 在 API Keys 页面创建新密钥
- 充值余额(最低 $5)
第二步:发起请求
Python 示例(GPT-5):
from openai import OpenAI
client = OpenAI(api_key="your-api-key")
response = client.chat.completions.create(
model="gpt-5",
messages=[
{"role": "system", "content": "你是一个专业的 Python 开发助手。"},
{"role": "user", "content": "实现一个 LRU Cache,要求线程安全"}
],
temperature=0.7,
max_tokens=4000
)
print(response.choices[0].message.content)
JavaScript/TypeScript 示例:
import OpenAI from 'openai';
const client = new OpenAI({ apiKey: 'your-api-key' });
const response = await client.chat.completions.create({
model: 'gpt-5',
messages: [
{ role: 'system', content: '你是一个专业的全栈开发助手。' },
{ role: 'user', content: '设计一个 REST API 的错误处理中间件' },
],
temperature: 0.7,
max_tokens: 4000,
});
console.log(response.choices[0].message.content);
使用推理模型 o3:
response = client.chat.completions.create(
model="o3",
messages=[
{"role": "user", "content": "证明对于所有正整数 n,1+2+...+n = n(n+1)/2"}
]
# 推理模型不需要设置 temperature
)
使用 Batch API(半价):
# 1. 准备 JSONL 文件
import json
requests = [
{"custom_id": "req-1", "method": "POST", "url": "/v1/chat/completions",
"body": {"model": "gpt-5-mini", "messages": [{"role": "user", "content": "总结这篇文章..."}]}},
{"custom_id": "req-2", "method": "POST", "url": "/v1/chat/completions",
"body": {"model": "gpt-5-mini", "messages": [{"role": "user", "content": "翻译这段文字..."}]}},
]
with open("batch_input.jsonl", "w") as f:
for req in requests:
f.write(json.dumps(req) + "\n")
# 2. 上传文件并创建批量任务
batch_file = client.files.create(file=open("batch_input.jsonl", "rb"), purpose="batch")
batch = client.batches.create(
input_file_id=batch_file.id,
endpoint="/v1/chat/completions",
completion_window="24h"
)
print(f"Batch ID: {batch.id}, Status: {batch.status}")
第三步:选择合适的模型名称
| 用途 | model 参数 |
|---|---|
| 旗舰通用 | gpt-5 |
| 深度推理 | o3 |
| 百万上下文 | gpt-4.1 |
| 经济通用 | gpt-5-mini |
| 轻量推理 | o4-mini |
| 百万上下文经济版 | gpt-4.1-mini |
| 极致低价 | gpt-4.1-nano |
| 多模态兼容 | gpt-4o |
六条省钱策略
1. 分级模型路由(效果最大)
不要把所有请求都打到 GPT-5 上。建一个简单的路由逻辑:
- 分类、格式提取、内容过滤 → GPT-4.1 Nano($0.10)
- 通用对话、摘要、翻译 → GPT-5 Mini($0.25)
- 复杂分析、创意写作 → GPT-5($1.25)
- 数学/逻辑/代码审查 → o3($2.00)
按 60/25/10/5 分配流量,整体成本比全用 GPT-5 低 80% 以上。
2. Batch API 半价
非实时任务永远走 Batch API。数据标注、批量翻译、内容审核队列、报告生成——只要不需要即时返回的,全部批量处理,直接省一半。
3. 利用 Prompt Caching
OpenAI 对重复使用的系统提示词提供缓存折扣。如果你的系统 prompt 在所有请求中保持一致(大多数应用都是如此),缓存能显著降低输入成本。确保把不变的内容放在 messages 数组的前面,让缓存命中率最大化。
4. 精简 Prompt
更短的 prompt = 更少的 token = 更少的花费。实操建议:
- 删除冗余指令和重复描述
- 用结构化格式(JSON、Markdown 列表)代替长段落
- Few-shot 示例控制在 2-3 个,不要堆 10 个
- 设置合理的
max_tokens,避免模型输出过长
用 Token 计算器 测量优化前后的 token 差异,好的 prompt 工程能省 30-50%。
5. 控制推理模型的 Token 消耗
o3 和 o4-mini 会在内部生成大量推理 token,这些你看不到但要付费。一次 o3 请求实际消耗的 token 可能是可见输出的 5-10 倍。只在真正需要深度推理的任务上用推理模型,其他一律用 GPT-5 或 Mini。
6. 设置消费告警和硬性上限
在 OpenAI Dashboard 设置月度消费上限和告警阈值。特别是在开发测试阶段,一个写错的循环就可能烧掉几百美元。不要等月底看账单才发现问题。
OpenAI API 的独特优势
相比其他厂商,选择 OpenAI 的理由:
- 产品线最全:9 个模型覆盖从 $0.10 到 $10 的全价格段,不需要在多个厂商之间切换
- 生态最成熟:几乎所有 AI 框架(LangChain、LlamaIndex、Semantic Kernel)都原生支持 OpenAI 格式
- 多模态能力:GPT-5 和 GPT-4o 原生支持图像理解,GPT-4o 还支持音频
- 稳定性和速率限制:在高并发场景下,OpenAI 的基础设施是最可靠的
- 企业合规:SOC 2 Type II、GDPR 合规,适合有合规要求的企业
当然,如果你的核心考量是价格,DeepSeek V3.2 在纯文本场景下仍然是最有竞争力的选择。如果你需要最强的推理能力和创意输出,Claude 系列值得考虑。
总结
OpenAI 在 2026 年的策略很清晰:用最全的模型矩阵覆盖所有价格段和使用场景。GPT-5 旗舰定价 $1.25 是所有厂商中最有竞争力的,GPT-4.1 Nano $0.10 直接把经济型模型拉到了白菜价,Batch API 半价更是让批量任务的成本降到极低。
对大多数开发者来说,最佳策略不是死守一个模型,而是充分利用 OpenAI 的产品线深度,建立按任务复杂度自动路由的架构。把 70% 的流量交给 Nano 和 Mini,20% 给 GPT-5,10% 给 o3——这样既保证了输出质量,又把成本控制在合理范围内。
如果你正在从其他厂商迁移,或者刚开始评估 AI API,OpenAI 的兼容性和生态成熟度是最不容易踩坑的选择。先从 GPT-5 Mini 开始,按需升级到 GPT-5 或 o3,随着业务量增长再引入模型路由策略。
相关资源:
- AI 模型定价计算器 — 在线对比 25+ 模型月费
- AI Token 计算器 — 精确计算 token 数和成本
- AI API 价格对比 2026 — 全部 7 大厂商定价一览
- DeepSeek API 价格指南 — 最便宜的高能力模型
- Claude API 价格指南 — 高端 API 省钱攻略
- Grok API 定价指南 2026 — Grok 3 $3/M、Mini $0.30/M,$25 免费额度
- Mistral API 定价指南 2026 — Large 3 $2/M、Small 3.1 $0.20/M,欧盟 GDPR 合规
- Gemini 3.1 Pro 价格指南 — $1.25/M,ARC-AGI-2 77.1%,百万级上下文
- GPT-5.3 Codex 价格指南 — $2/M,Agent 编程,200K 上下文,32K 输出