OpenAI重磅升级:Responses API引入WebSocket模式,复杂任务性能提升40%

OpenAI 发布了一项针对长时间运行、大量工具调用场景的重要更新:Responses API 现已支持 WebSocket 模式。

OpenAI重磅升级:Responses API引入WebSocket模式,复杂任务性能提升40%

此功能专为需要频繁进行模型-工具交互的工作流设计,例如代码自动化或需要反复调用工具的智能体编排任务。

核心改进:从对话到关系

核心改进在于连接方式的转变。在传统的 HTTP 模式下,每次交互都需要重新发送完整的上下文,如同每次通话都需重新自我介绍。而 WebSocket 模式则能保持持久连接,只需发送新的输入内容和 previous_response_id,从而大幅减少了重复传输的开销。

建立连接的方式如下:

from websocket import create_connection
import json
import os

ws = create_connection(
    "wss://api.openai.com/v1/responses",
    header=[
        f"Authorization: Bearer {os.environ['OPENAI_API_KEY']}",
    ],
)

# 发送初始请求
ws.send(
    json.dumps({
        "type": "response.create",
        "model": "gpt-5.2",
        "store": False,
        "input": [{
            "type": "message",
            "role": "user",
            "content": [{"type": "input_text", "text": "分析这个代码文件"}],
        }],
        "tools": [{"type": "code_interpreter"}],
    })
)

后续交互仅需发送增量数据:

# 继续对话,只发送新内容
ws.send(
    json.dumps({
        "type": "response.create",
        "model": "gpt-5.2",
        "store": False,
        "previous_response_id": "resp_123",
        "input": [
            {
                "type": "function_call_output",
                "call_id": "call_456",
                "output": "发现3个性能瓶颈",
            },
            {
                "type": "message",
                "role": "user",
                "content": [{"type": "input_text", "text": "给出优化方案"}],
            },
        ],
        "tools": [],
    })
)

性能提升数据

性能提升数据非常直观:对于涉及 20 次以上工具调用的复杂任务,端到端执行速度可提升 20% 至 40%。这种提升源于连接级的内存缓存机制,服务器会在内存中保留最近一次响应的状态,避免了重复的状态重建工作。

此模式特别适合需要多轮工具调用的场景,例如代码重构流程:分析代码 → 发现问题 → 生成修复方案 → 应用修改 → 验证结果。每一步都只需发送增量数据。

技术细节和限制

在技术细节上,WebSocket 模式兼容零数据保留(ZDR)和 store=false 设置,这对隐私敏感的应用至关重要。连接限制为 60 分钟,超时后需要重新建立连接:

# 处理连接超时
try:
    response = ws.recv()
except Exception as e:
    if "connection_limit_reached" in str(e):
        # 重新建立连接
        ws = create_connection(
            "wss://api.openai.com/v1/responses",
            header=[f"Authorization: Bearer {os.environ['OPENAI_API_KEY']}"]
        )

若需并行处理,目前尚不支持多路复用,需要建立多个连接。这意味着如果有多个独立的智能体任务,每个任务都需要单独的 WebSocket 连接。

行业影响

值得注意的是,此次更新还提及了与 Open Responses 规范的关系。Open Responses 是一个开源项目,旨在为不同 LLM 提供商建立统一的 API 标准,并已获得 Vercel、Hugging Face、Databricks 等公司的支持。

从社区反馈来看,开发者对此功能感到兴奋,尤其是那些正在构建复杂智能体系统的开发者。不过,也有人指出这可能会增加供应商锁定的风险,因为状态管理增加了迁移成本。

对于大多数简单的对话场景,此功能可能并非必需。但如果你正在构建需要大量工具调用的智能体,例如代码审查助手、数据分析流水线或复杂的业务流程自动化,那么这项更新值得关注。

参考资料:
* OpenAI WebSocket Mode 官方文档:https://developers.openai.com/api/docs/guides/websocket-mode
* Open Responses 规范:https://www.openresponses.org/


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/22670

(0)
上一篇 2026年2月24日 上午8:50
下一篇 2026年2月24日 上午11:50

相关推荐

  • 揭秘大模型幻觉根源:清华大学发现“讨好神经元”H-Neurons

    大模型胡说八道的根源,可能并非数据或算法问题,而在于它试图“讨好”用户。 清华大学OpenBMB团队在最新研究中,首次识别出专门负责产生幻觉的神经元——H-Neurons。这一发现颇具反直觉色彩:模型说谎并非因为能力不足,而是它将“满足用户指令”的优先级,置于“陈述事实”之上。 核心发现可归纳为三点: 精准定位:H-Neurons仅占模型总神经元的不到0.1…

    2025年12月22日
    19500
  • Twill:斯坦福与NVIDIA联手打造Tensor Core GPU自动优化引擎,终结手工内核调优时代

    关键词: Tensor Core GPU 、Software Pipelining 、Warp Specialization 、Twill、Constraint Solving、 Modulo Scheduling 随着 AI 大模型向“更大参数、更长序列”发展,Tensor Core GPU 的优化需求将持续增长。Twill 所代表的“约束求解驱动的最优优…

    2025年12月29日
    14800
  • 周末实战:7个可上线级Agentic AI项目,助你打造高含金量作品集

    大家都在谈论自主 AI 智能体,仿佛它们只属于研究实验室和大型科技公司。但事实并非如此。到 2025 年,构建可用于生产环境的 Agentic AI 系统已经变得异常容易——而这正是招聘经理最希望看到的技能。 当其他人还在制作简单的 ChatGPT 封装应用时,你可以构建真正具备决策、工具使用、上下文记忆与协作能力的智能体系统。这些不仅仅是演示,而是能够展示…

    2025年12月20日
    33900
  • Cog-RAG:让RAG在检索前先思考,用双超图架构模拟人类认知过程

    Retrieval-Augmented Generation(RAG)已成为帮助大型语言模型保持信息“有根有据”的标准方法。其基本流程广为人知:将文档切分为片段,进行向量化嵌入,执行向量检索,最后将最匹配的前K个结果输入给大模型生成答案。 然而,这条标准流水线存在一些固有的局限性。 为什么多数 RAG 系统仍像支离破碎的记忆 图 1:图、超图与 Cog-RA…

    2026年2月23日
    10400
  • LingoEDU:结构化预处理新突破,让大模型生成可溯源,DeepSeek准确率飙升51%

    LingoEDU:结构化预处理新突破,让大模型生成可溯源,DeepSeek准确率飙升51% 一种名为LingoEDU(简称EDU,即基本话语单元技术)的新方法,能够零成本降低大模型幻觉,让DeepSeek的准确率相对提升51%。 LingoEDU是一个在大模型正式生成前执行的专用「预处理」模型。其核心在于对输入文本进行精准切分,为每一个最小信息单元(EDU)…

    2026年1月5日
    19800