DevTk.AI

AI API 吞吐规划器与成本估算器

在 AI API 流量撞上提供商限额前,先估算可持续 RPM、并发和月成本。

限额输入

即使有公开 tier,下面的输入也都可手改。你的账号、地区或企业合同可能和公开文档不同。

同时受 RPM 和总 TPM(输入+输出)约束。

请求形态

这个模型暂时没有站内映射的公开限额预设,请手动输入你账号里的真实限额。

可持续 RPM

RPM

主要瓶颈

自定义 / 手动

安全并发数

按当前平均时延估算的同时在途请求数

稳定负载月成本

$2376.00

GPT-5 Mini

每日请求数
57,600
每月请求数
1,728,000
约等于可排队请求数
每日配额状态

约束拆解

把每一条限额换算成当前请求形态下的最大稳定 RPM。最小值就是你的真实上限。

约束最大稳定 RPM原因
这个模型暂时没有站内映射的公开限额预设,请手动输入你账号里的真实限额。

建议

  • 上线前先去提供商控制台确认你的实时限额,不要只信公开文档。

来源

OpenAI model docs

核验日期: 2026-04-27

打开官方文档

如何使用此工具

  1. 先选择一个带公开预设的模型;如果没有,就切到任意已跟踪模型并手动填入你账号里的真实限额。
  2. 把平均输入 Token、输出 Token、响应时延、稳定 RPM 和峰值 RPM 调整成接近你线上流量的样子。
  3. 查看可持续 RPM 的拆解结果,确认最先卡住你的是请求数、输入 Token、输出 Token 还是每日配额。
  4. 如果公开文档和你控制台里的配额不一致,直接覆盖输入值,不要硬套公开 tier。
  5. 结合月成本和建议,判断你应该排队、分流、缩短 Prompt,还是直接升 tier。

为什么上线前一定要做吞吐规划

定价计算器只能告诉你“贵不贵”,不能告诉你“跑不跑得住”。很多 AI 产品第一次线上事故不是成本爆炸,而是流量一上来就撞上 RPM 或 TPM 硬上限,开始持续吃 429。

这个工具的价值就在于:把公开限额翻译成和你的请求形态直接相关的真实上限。一个看起来很便宜的模型,可能会因为 Prompt 太长、输出太多、峰值太高而根本扛不住。

更合理的生产方案通常不是只换模型,而是同时决定三件事:你买哪个 tier、你能把输入输出压到多短、以及高峰时你准备怎么排队或分流。

最后更新:2026年4月

常见问题

这个工具具体算什么?

它会把公开限额或你手动输入的限额,换算成适用于当前请求形态的可持续 RPM 上限。同时估算安全并发、每日/每月请求量,以及该稳定负载下的模型成本。

为什么有时真正的瓶颈不是 RPM,而是 TPM?

因为长 Prompt 或大输出会更快吃光 Token 预算。模型即使公开写着每分钟能处理很多请求,如果每个请求都很大,往往会先被 TPM 卡死。

可以直接无脑相信公开预设吗?

不行。提供商控制台、企业合同、预览权限和区域配额都可能和公开文档不同。公开 tier 只能当基线,上线前应该用你账号里的真实限额覆盖这些输入。

明明已经选了公开 tier,为什么输入框还允许修改?

因为公开文档不是全部真相。企业合同、区域配额、预览模型和计费层级变化都会影响你账号里真正拿到的额度。预设只是基线,不是锁死值。

这个工具能代替提供商控制台吗?

不能。它是一个上线前的决策工具,用来压测你的方案、比较模型并估算目标吞吐下的成本。真正上线前,还是要去 OpenAI、Anthropic 或 Google 的控制台确认实时配额。

相关工具