AI API 吞吐规划器与成本估算器
在 AI API 流量撞上提供商限额前,先估算可持续 RPM、并发和月成本。
限额输入
即使有公开 tier,下面的输入也都可手改。你的账号、地区或企业合同可能和公开文档不同。
同时受 RPM 和总 TPM(输入+输出)约束。
请求形态
这个模型暂时没有站内映射的公开限额预设,请手动输入你账号里的真实限额。
可持续 RPM
—
RPM
主要瓶颈
自定义 / 手动
—
安全并发数
—
按当前平均时延估算的同时在途请求数
稳定负载月成本
$2376.00
GPT-5 Mini
- 每日请求数
- 57,600
- 每月请求数
- 1,728,000
- 约等于可排队请求数
- —
- 每日配额状态
- —
约束拆解
把每一条限额换算成当前请求形态下的最大稳定 RPM。最小值就是你的真实上限。
| 约束 | 最大稳定 RPM | 原因 |
|---|---|---|
| 这个模型暂时没有站内映射的公开限额预设,请手动输入你账号里的真实限额。 | ||
建议
- 上线前先去提供商控制台确认你的实时限额,不要只信公开文档。
来源
如何使用此工具
- 先选择一个带公开预设的模型;如果没有,就切到任意已跟踪模型并手动填入你账号里的真实限额。
- 把平均输入 Token、输出 Token、响应时延、稳定 RPM 和峰值 RPM 调整成接近你线上流量的样子。
- 查看可持续 RPM 的拆解结果,确认最先卡住你的是请求数、输入 Token、输出 Token 还是每日配额。
- 如果公开文档和你控制台里的配额不一致,直接覆盖输入值,不要硬套公开 tier。
- 结合月成本和建议,判断你应该排队、分流、缩短 Prompt,还是直接升 tier。
为什么上线前一定要做吞吐规划
定价计算器只能告诉你“贵不贵”,不能告诉你“跑不跑得住”。很多 AI 产品第一次线上事故不是成本爆炸,而是流量一上来就撞上 RPM 或 TPM 硬上限,开始持续吃 429。
这个工具的价值就在于:把公开限额翻译成和你的请求形态直接相关的真实上限。一个看起来很便宜的模型,可能会因为 Prompt 太长、输出太多、峰值太高而根本扛不住。
更合理的生产方案通常不是只换模型,而是同时决定三件事:你买哪个 tier、你能把输入输出压到多短、以及高峰时你准备怎么排队或分流。
最后更新:2026年4月
常见问题
这个工具具体算什么?
它会把公开限额或你手动输入的限额,换算成适用于当前请求形态的可持续 RPM 上限。同时估算安全并发、每日/每月请求量,以及该稳定负载下的模型成本。
为什么有时真正的瓶颈不是 RPM,而是 TPM?
因为长 Prompt 或大输出会更快吃光 Token 预算。模型即使公开写着每分钟能处理很多请求,如果每个请求都很大,往往会先被 TPM 卡死。
可以直接无脑相信公开预设吗?
不行。提供商控制台、企业合同、预览权限和区域配额都可能和公开文档不同。公开 tier 只能当基线,上线前应该用你账号里的真实限额覆盖这些输入。
明明已经选了公开 tier,为什么输入框还允许修改?
因为公开文档不是全部真相。企业合同、区域配额、预览模型和计费层级变化都会影响你账号里真正拿到的额度。预设只是基线,不是锁死值。
这个工具能代替提供商控制台吗?
不能。它是一个上线前的决策工具,用来压测你的方案、比较模型并估算目标吞吐下的成本。真正上线前,还是要去 OpenAI、Anthropic 或 Google 的控制台确认实时配额。