OpenAI o1推理模型API正式开放,仅限部分高级开发者尝鲜

   发布时间:2024-12-18 08:12 作者:任飞扬

OpenAI近日在其“OpenAI 12天”系列活动中迎来了第九天的重大更新,正式向部分开发者开放了其名为o1的“推理”人工智能模型API。同时,该公司还发布了一系列其他开发者工具的更新,包括GPT-4o、实时API以及微调API等。

据悉,首批获得o1 API访问权限的开发者为OpenAI的“第五级”用户,这一级别要求开发者在平台上累计消费至少1000美元,并且账户自首次成功付款以来已超过30天。o1 API的推出取代了之前的o1-preview模型,标志着OpenAI在推理模型技术上的进一步推进。

o1模型的一大特点是其自我事实核查能力,这使它能够有效避免一些常见的人工智能错误。然而,这种推理模型也伴随着较高的计算成本和更长的响应时间。OpenAI对o1的收费政策是,每分析约75万字收取15美元,每生成约75万字则收取60美元,这一费用是其最新“非推理”模型GPT-4o的六倍。

与o1-preview相比,o1 API在功能和可定制性上有了显著提升。新增的功能包括函数调用、开发者消息以及图像分析等,这使得模型能够更灵活地适应各种应用场景。o1还提供了一个名为“reasoning_effort”的API参数,允许开发者控制模型在回答问题前的思考时间,从而进一步优化输出结果。

OpenAI表示,o1模型已经过“新近的后训练”,并发布了版本号“o1-2024-12-17”。与两周前在ChatGPT中发布的o1模型相比,新版本在多个方面进行了改进,但具体细节并未透露。OpenAI正在逐步扩大访问权限,并计划覆盖更多用户级别,同时提高速率限制。公司表示,最新的o1模型在编程和商业相关问题上能够提供更全面、更准确的回答,并且不太可能错误地拒绝请求。

在实时API方面,OpenAI也发布了新版本的GPT-4o和GPT-4o mini模型。这些模型作为实时API的一部分,旨在构建具有低延迟、人工智能生成语音响应的应用程序。新模型拥有更高的数据效率和可靠性,并且使用成本更低。实时API目前仍处于测试阶段,但已经获得了多项新功能,如并发的带外响应和WebRTC支持。

WebRTC的集成使得OpenAI能够在网络质量不稳定的情况下,实现流畅且响应迅速的交互。这一功能对于基于浏览器的客户端、智能手机和物联网设备上的实时语音应用程序尤为重要。OpenAI在12月初聘请了WebRTC的创建者Justin Uberti,以加强其在实时通信技术方面的实力。

最后,OpenAI还为其微调API引入了偏好微调功能。这一功能通过比较模型响应的配对,来教导模型区分对问题的首选答案和“非首选”答案。公司还推出了针对Go和Java的官方软件开发工具包“早期访问”测试版,以进一步扩展其开发者生态。

 
 
更多>同类内容
全站最新
热门内容
本栏最新