AI在线 AI在线

OpenAI 推出 Batch 批处理 API:半价折扣,24 小时内输出结果

感谢OpenAI 今天凌晨面向开发者推出 Batch 批处理 API,可在 24 小时内给出结果,并提供 API 半价折扣。新的 Batch API 适用于异步任务处理,如当开发者需要处理大量文本、图片、摘要时,就可以使用该 API,OpenAI 会在 24 小时内给出处理结果。这样 OpenAI 可以在非高峰期处理,节约服务器资源,并为开发者提供半价优惠,解锁更高的速率限制。新的 Batch API 支持使用以下模型:gpt-3.5-turbogpt-3.5-turbo-16kgpt-4gpt-4-32kgpt-
感谢OpenAI 今天凌晨面向开发者推出 Batch 批处理 API,可在 24 小时内给出结果,并提供 API 半价折扣。

OpenAI Batch 批处理 API

新的 Batch API 适用于异步任务处理,如当开发者需要处理大量文本、图片、摘要时,就可以使用该 API,OpenAI 会在 24 小时内给出处理结果。这样 OpenAI 可以在非高峰期处理,节约服务器资源,并为开发者提供半价优惠,解锁更高的速率限制。

OpenAI API 文档

新的 Batch API 支持使用以下模型:

gpt-3.5-turbo

gpt-3.5-turbo-16k

gpt-4

gpt-4-32k

gpt-4-turbo-preview

gpt-4-turbo

gpt-3.5-turbo-0301

gpt-3.5-turbo-16k-0613

gpt-3.5-turbo-1106

gpt-3.5-turbo-0613

gpt-4-0314

gpt-4-turbo-2024-04-09

gpt-4-32k-0314

gpt-4-32k-0613

OpenAI 已经在 API 文档中介绍了详细使用方法,包括如何创建、取回、取消 Batch 批处理等,IT之家有需要的开发者提供官方介绍如下:

- Batch API 示例 - OpenAI API 文档

- Batch API 常见问题与解答 | OpenAI 帮助中心

相关资讯

OpenAI官方下场修复GPT-4变懒,上新多个模型、还大降价

今天,OpenAI 一口气宣布了 5 个新模型,包括两个文本嵌入模型、升级的 GPT-4 Turbo 预览版和 GPT-3.5 Turbo、一个审核模型。不知大家是否还记得,去年年底 GPT-4 开始变「懒」的事实。比如在高峰时段使用 GPT-4 或 ChatGPT API 时,响应会变得非常缓慢且敷衍,有时它会拒绝回答用户提出的问题,甚至还会单方面中断对话。 这种情况对于码农来说,更是深有体会,有人抱怨道「让 ChatGPT 扩展一些代码,它竟然让我自己去写。」原本想借助 ChatGPT 帮助自己编写代码,现在好
1/26/2024 2:41:00 PM
机器之心

深度学习中Batch Size对训练过程如何影响?

之前面试过程中被问到过两个问题:(1)深度学习中batch size的大小对训练过程的影响是什么样的? (2)有些时候不可避免地要用超大batch,比如人脸识别,可能每个batch要有几万甚至几十万张人脸图像,训练过程中超大batch有什么优缺点,如何尽可能地避免超大batch带来的负面影响? 面试版回答在不考虑Batch Normalization的情况下(这种情况我们之后会在bn的文章里专门探讨),先给个自己当时回答的答案吧(相对来说学究一点):(1) 不考虑bn的情况下,batch size的大小决定了深度学习训练过程中的完成每个epoch所需的时间和每次迭代(iteration)之间梯度的平滑程度。
6/13/2025 2:55:00 AM
grok

Batch Size与Epoch:深度模型训练的“油门”与“里程表”

在深度学习的世界里,我们常常被各种华丽的网络架构和前沿的应用所吸引,却容易忽略那些看似基础却至关重要的训练参数。 今天,我们要深入探讨的就是模型训练过程中的两个基础术语——Batch Size与Epoch。 这两个术语不仅决定了模型的学习效率,还直接影响着模型的性能和最终效果。
10/29/2025 7:53:51 AM
Fairy Girl
  • 1