OpenAI 为开发者推出半价 API 支持批量处理但不是实时获得结果

244 天前
 spoock1024

原文链接: OpenAI 推出半价 API !

最新消息,对于那些需要批量处理大量数据的开发者来说,今天有个好消息:OPENAI 刚刚推出了一款专为开发者设计的批量处理 API,而且享受 50%的折扣

通过这个新工具,开发者可以一次性提交大量内容,并在 24 小时内收到处理结果

可以根据 ChatGPT API 申请教程 这篇文章提交的教程,很方便就可以开通 ChatGPT API 服务。

referer:https://twitter.com/OpenAIDevs/status/1779922566091522492

批量处理 API 的好处

对于开发者来说,可以享受 50%的折扣,成本下降了。而且在处理大批量的文本、摘要、翻译或图像分类时,这种方式极为适合,因为这些任务通常不需要即时响应,开发者可以提交后静待 OPENAI 处理完毕再进行后续操作。

对于 OpenAI 来说,通过在非高峰时段处理这些批量请求,OPENAI 能够更有效地平衡服务器负载并降低成本。

这种模式对双方都有利。根据 OPENAI 的 API 文档,除了半价优惠,开发者还能享受到更高的请求处理速率,即每分钟可提交更多的请求。

如何使用批量处理 API

开发者需要通过 JSONL 文件格式提交数据,将所有请求整合到一个 JSONL 文件中,然后通过 batch 参数上传到服务器。

referer: https://twitter.com/MindMacApp/status/1780108740475441169

详细的使用方法包括创建批处理任务、请求正文格式和结果检索可以参考下面的步骤。

准备 JSON 格式的文件

{
    "custom_id": "mmrequest-1",
    "method": "POST",
    "url": "/v1/chat/completions",
    "body": {
        "model": "gpt-3.5-turbo",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant."
            },
            {
                "role": "user",
                "content": "What is 2+2?"
            }
        ]
    }
}

提交文件

curl https://api.openai.com/v1/files -H "Authorization: Bearer $OPENAI_API_KEY" -F purpose="batch" -F file="@/Users/username/Downloads/mmbatch.jsonl"

调用批量处理 API

curl --request POST --url https://api.openai.com/v1/batches --header "Authorization: Bearer $OPENAI_API_KEY" --header 'Content-Type: application/json' --data '{ "input_file_id": "file-id-from-step-2", "endpoint": "/v1/chat/completions", "completion_window": "24h" }'

获得批量处理任务状态

curl https://api.openai.com/v1/batches/{batch_id_from_step_3} -H "Authorization: Bearer $OPENAI_API_KEY"

获得处理结果

curl https://api.openai.com/v1/files/{file_output_id_from_step_4}/content -H "Authorization: Bearer $OPENAI_API_KEY" > batch_output.jsonl

更多的详细使用方法,可以参考官方 OpenAI 的批量处理 API

referer:https://platform.openai.com/docs/api-reference/batch

批量处理 API 支持模型

当前批量处理的 API 支持的模型包括:

总结

总的来说,推出这种异步任务对 OpenAI 和调用方都是一个双赢的结果。

OpenAI 来说可以在非高峰期时处理这些请求,这样可以平衡服务器资源节省成本。

对于开发者来说,处理实时性要求不高的任务,只需要支付 50% 的费用,成本也下降了。

对于我自己来说,目前我个人主要是在编程方面用得比较多,所以 API 的方式比较适合我,每天高强度使用 GPT4-Turbo 的 API ,每个月的花费也不会到 20 美刀。

1055 次点击
所在节点    OpenAI
1 条回复
lizhisty
243 天前
gpt4 不太行了 试试 opus 会让你发现什么才是大模型

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1033559

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX