OpenAI放大招!核心API支持MCP,一夜改变智能体开发

今天凌晨,OpenAI全资收购io的消息占据了大部分头条。同时OpenAI也“悄悄地”放出了另外一个重磅消息,用于开发智能体的核心API——Responses API支持MCP服务。

传统方法,我们在开发智能体需要通过函数调用与外部服务交互,每次操作都涉及从大模型到后端再到外部服务的网络传输,导致多次跳转、延迟会很高,并增加扩展和管理的复杂性。

Responses API其他新增功能

除了支持MCP外,OpenAI 还对Responses API 中的图像生成、Code Interpreter 和文件搜索工具进行了重大更新,进一步增强了智能体的功能。

图像生成:开发者现在可以在Responses API 中直接访问 OpenAI 的最新图像生成模型(如 <gpt-image-1>),并将其作为工具使用。该工具支持实时流传输,允许开发者在图像生成过程中查看预览,并支持多轮编辑,使开发者能够逐步精细调整图像。

Code InterpreterCode Interpreter 工具现在可以在 Responses API 中使用,支持数据分析、解决复杂的数学和编码问题,甚至帮助模型深入理解和操作图像。例如,在处理数学问题时,模型可以利用 Code Interpreter 运行代码来得出答案,从而显著提升性能。

文件搜索:文件搜索工具得到了增强,允许开发者根据用户查询将文档中的相关内容块提取到模型的上下文中。此外,该工具还支持跨多个向量存储执行搜索,并允许使用数组进行属性过滤。

OpenAI放大招!核心API支持MCP,一夜改变智能体开发

同时OpenAI也在Responses API引入了全新的功能。

后台模式:对于需要较长时间处理的任务,开发者可以使用后台模式异步启动这些任务,而无需担心超时或其他连接问题。开发者可以通过轮询这些任务来检查是否完成,或者在需要时开始流式传输事件。

OpenAI放大招!核心API支持MCP,一夜改变智能体开发

推理摘要:Responses API 现在可以生成模型内部思维链的简洁自然语言摘要。这使得开发者更容易调试、审计和构建更好的最终用户体验。

加密推理项:符合零数据保留(ZDR)条件的客户可以在 API 请求之间重复使用推理项,而无需将任何推理项存储在 OpenAI 的服务器上。这不仅提高了智能性,还减少了标记使用量,降低了成本和延迟。

© 版权声明
THE END
喜欢就支持一下吧
点赞29 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片