OpenAI重磅升级:Responses API引入WebSocket模式,复杂任务性能提升40%

OpenAI 发布了一项针对长时间运行、大量工具调用场景的重要更新:Responses API 现已支持 WebSocket 模式。

OpenAI重磅升级:Responses API引入WebSocket模式,复杂任务性能提升40%

此功能专为需要频繁进行模型-工具交互的工作流设计,例如代码自动化或需要反复调用工具的智能体编排任务。

核心改进:从对话到关系

核心改进在于连接方式的转变。在传统的 HTTP 模式下,每次交互都需要重新发送完整的上下文,如同每次通话都需重新自我介绍。而 WebSocket 模式则能保持持久连接,只需发送新的输入内容和 previous_response_id,从而大幅减少了重复传输的开销。

建立连接的方式如下:

from websocket import create_connection
import json
import os

ws = create_connection(
    "wss://api.openai.com/v1/responses",
    header=[
        f"Authorization: Bearer {os.environ['OPENAI_API_KEY']}",
    ],
)

# 发送初始请求
ws.send(
    json.dumps({
        "type": "response.create",
        "model": "gpt-5.2",
        "store": False,
        "input": [{
            "type": "message",
            "role": "user",
            "content": [{"type": "input_text", "text": "分析这个代码文件"}],
        }],
        "tools": [{"type": "code_interpreter"}],
    })
)

后续交互仅需发送增量数据:

# 继续对话,只发送新内容
ws.send(
    json.dumps({
        "type": "response.create",
        "model": "gpt-5.2",
        "store": False,
        "previous_response_id": "resp_123",
        "input": [
            {
                "type": "function_call_output",
                "call_id": "call_456",
                "output": "发现3个性能瓶颈",
            },
            {
                "type": "message",
                "role": "user",
                "content": [{"type": "input_text", "text": "给出优化方案"}],
            },
        ],
        "tools": [],
    })
)

性能提升数据

性能提升数据非常直观:对于涉及 20 次以上工具调用的复杂任务,端到端执行速度可提升 20% 至 40%。这种提升源于连接级的内存缓存机制,服务器会在内存中保留最近一次响应的状态,避免了重复的状态重建工作。

此模式特别适合需要多轮工具调用的场景,例如代码重构流程:分析代码 → 发现问题 → 生成修复方案 → 应用修改 → 验证结果。每一步都只需发送增量数据。

技术细节和限制

在技术细节上,WebSocket 模式兼容零数据保留(ZDR)和 store=false 设置,这对隐私敏感的应用至关重要。连接限制为 60 分钟,超时后需要重新建立连接:

# 处理连接超时
try:
    response = ws.recv()
except Exception as e:
    if "connection_limit_reached" in str(e):
        # 重新建立连接
        ws = create_connection(
            "wss://api.openai.com/v1/responses",
            header=[f"Authorization: Bearer {os.environ['OPENAI_API_KEY']}"]
        )

若需并行处理,目前尚不支持多路复用,需要建立多个连接。这意味着如果有多个独立的智能体任务,每个任务都需要单独的 WebSocket 连接。

行业影响

值得注意的是,此次更新还提及了与 Open Responses 规范的关系。Open Responses 是一个开源项目,旨在为不同 LLM 提供商建立统一的 API 标准,并已获得 Vercel、Hugging Face、Databricks 等公司的支持。

从社区反馈来看,开发者对此功能感到兴奋,尤其是那些正在构建复杂智能体系统的开发者。不过,也有人指出这可能会增加供应商锁定的风险,因为状态管理增加了迁移成本。

对于大多数简单的对话场景,此功能可能并非必需。但如果你正在构建需要大量工具调用的智能体,例如代码审查助手、数据分析流水线或复杂的业务流程自动化,那么这项更新值得关注。

参考资料:
* OpenAI WebSocket Mode 官方文档:https://developers.openai.com/api/docs/guides/websocket-mode
* Open Responses 规范:https://www.openresponses.org/


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/22670

(0)
上一篇 2026年2月24日 上午8:50
下一篇 2026年2月24日 上午11:50

相关推荐

  • 17岁高中生实现Ilya预言!Kimi团队“旋转”注意力机制,训练效率提升25%,马斯克都来围观

    17岁高中生实现Ilya预言:Kimi团队“旋转”注意力机制,训练效率提升25% 一位17岁的高中生,以共同第一作者的身份,在Kimi团队将OpenAI首席科学家Ilya Sutskever提出的一个设想变成了现实。 Ilya曾有一个著名的预言:将按时间顺序处理数据的LSTM网络“旋转90度”——即把时间轴替换为模型的深度轴——就演变成了当今主流的残差网络(…

    2026年3月17日
    46900
  • ReCALL框架破解大模型检索难题:AI国家队联合新加坡国立大学实现生成式模型无损变检索器,CVPR 2026收录

    行业痛点:范式冲突导致大模型检索“能力退化” 多模态大模型(MLLM)在图文理解与逻辑推理方面展现出强大能力,将其应用于组合图像检索(CIR)任务,本应具有显著优势。然而,现实情况却相反:将生成式大模型强行改造为判别式检索器后,模型会出现严重的能力退化,甚至无法解决原本能够精准处理的问题。生成式与判别式之间的范式冲突,成为大模型向检索领域落地的核心障碍。 近…

    4天前
    11700
  • Meta与NYU联手攻克AI规划难题:时间直道化让世界模型更接近现实

    在人工智能的发展历程中,有一位科学家几乎贯穿了整个深度学习时代——他就是Yann LeCun。 许多人最初接触神经网络,往往是通过他在上世纪提出的手写数字识别系统LeNet。这一早期的卷积神经网络模型不仅成功应用于银行支票识别,也为后来席卷全球的深度学习浪潮奠定了重要基础。 与如今大量研究者将目光投向生成式AI不同,LeCun近年来一直在强调另一条更长期的研…

    2026年3月29日
    14100
  • LangChain系统性能深度对比:Python与Go在AI应用中的实战评测

    LangChain 系统性能深度对比:Python 与 Go 在 AI 应用中的实战评测 Lovable,这家高速增长的 AI 公司,今年将其后端从 Python 迁移到 Go,将服务器使用和部署时间从约 15 分钟降至约 3 分钟。Go 正日益被视为现代 AI 系统的理想语言,从高吞吐的 RAG 管道到多工具的 Agent。 但若要真正评估 Go 在生产级…

    2025年12月31日
    29100
  • 跨越模态边界:构建真正理解图像、表格与文本的多模态RAG系统

    构建多模态 RAG 系统的终极指南 三个月前,我们新开发的 AI 应用在诸多看似简单的问题上频频“翻车”。问题根源并非 AI 不够智能或数据不足,而是因为答案蕴含在一张图片里,而当时的系统仅能处理文本。 这一时刻迫使我直面一个在构建 RAG 系统时长期回避的核心问题:我们花费数年时间教 AI “阅读”文字,却忽略了人类同样通过图像、表格、公式和流程图来“表达…

    2025年12月16日
    35800