
在 DevDay 2024 上,OpenAI 更注重内容而不是奇观,推出了四项更新,让开发人员更容易获得和负担得起 AI。 |
Here’s what’s new: 以下是新功能: 实时 API:新推出的实时 API 允许开发人员访问六种 AI 语音,这些语音旨在无缝集成到应用程序中。与 ChatGPT 中的语音不同,这些语音可以在各种情况下进行逼真的对话,包括旅行计划和基于电话的订购系统,价格约为 18 美元/小时。该 API 支持实时响应,增强了各种应用程序中的用户体验,尽管开发人员负责披露 AI 生成语音的使用情况。 视觉微调 API:Vision Fine-Tuning API 允许开发人员通过将图像数据与文本相结合来支持 GPT-4o,从而显着提高模型的视觉理解能力。此功能支持高级视觉搜索、自动驾驶汽车的对象检测和精确的医学图像分析,所有这些都可以通过 100 张图像实现。OpenAI 通过授予开发人员对数据所有权和使用的完全控制权来保持透明度,并辅以自动安全评估以确保合规性。 API 中的提示缓存:提示缓存功能使开发人员能够通过重用先前提示中的输入令牌来节省成本并减少延迟。此功能对于代码编辑和多轮次对话特别有用,可节省高达 50% 的处理时间。该功能会自动应用于最新的 GPT-4o 和 GPT-4o 迷你版本,在确保满足隐私承诺的同时,激活超过 1,024 个令牌的提示。 API 中的模型蒸馏:OpenAI 的模型蒸馏允许开发人员使用 GPT-4o 和 o1-preview 等高级模型的输出来优化具有成本效益的模型。这种集成过程简化了高性能模型的创建,例如 GPT-4o mini,而无需多个工具。主要功能包括用于自动生成数据集的 Stored Completions 和用于性能评估的 Evals。模型蒸馏现已推出,每天为 GPT-4o mini 提供 200 万个免费训练代币,为 GPT-4o 提供 100 万个免费训练代币,直到 10 月 31 日,之后将适用标准微调定价。 另外,一个新的提示生成器? OpenAI has a leaked prompt for generating system prompts on the playground, aimed at improving clarity and effectiveness. 此外,OpenAI 宣布对 o1-preview 模型的访问现在扩展到使用层 3 的开发人员,其更高的速率限制与 GPT-4o 相同。
|