Context Engineering:2026年真正重要的6种技术(完整指南)

Prompt Engineering 已死。Context Engineering 才是当下生产系统的工作方式。

你的 RAG 系统返回了完美的文档片段,你的提示词也打磨得无可挑剔,但大语言模型(LLM)依然在“幻觉”中编造答案。

例如,当你查询最新的退款政策时,系统可能将2018年至2026年的50份文档全部塞入上下文。LLM 看到相互矛盾的政策,陷入混乱,于是开始编造答案。你尝试添加更多文档,结果回答反而更糟。这不是提示词的问题,而是上下文的问题。

关键转变在于: Prompt Engineering 决定了模型“如何说话”;而 Context Engineering 决定了模型“在说话时看到什么”。

2026年的性能提升将来自动态上下文选择、压缩和记忆管理,而非巧妙的提示词藻。

以下是让生产系统与演示原型拉开差距的6种高效上下文工程技术。


什么是 Context Engineering?

Context Engineering 指在运行时决定 AI 模型看到哪些信息、何时看到、以及如何组织这些信息的工程实践。

  • Prompt Engineering 关注的是你“怎么问”。
  • Context Engineering 关注的是你“给什么”。

在真实系统中,LLM 的失败往往不是因为“不懂指令”,而是因为被喂入了太多不相关信息相互冲突的数据,或者遗漏了关键事实

Context Engineering 的核心是将上下文视为一个动态流水线,而不仅仅是静态的提示词。它包括:

  • 选择合适的文档,而非全盘倾倒。
  • 将长源文档压缩为面向任务的摘要。
  • 在检索前改写含糊的用户查询。
  • 跨会话注入记忆和用户状态。
  • 用实时工具和数据做事实锚定。
  • 以能体现优先级的结构组织所有输入。

简而言之:Context Engineering 是在生产环境中控制模型注意力的方式。

当上下文被正确工程化时,即使更小的模型也能表现出色;当上下文处理糟糕时,即使最好的模型也会产生幻觉。

6 大核心技术

Context Engineering:2026年真正重要的6种技术(完整指南)


1. 选择性检索:别再一股脑儿全塞

Context Engineering:2026年真正重要的6种技术(完整指南)

幼稚做法: 检索50篇文档,全部塞进上下文,指望模型自己找到所需信息。

问题: 再大的上下文窗口,模型的注意力分布也不均匀。它会更关注开头和结尾,中间部分容易被遗忘,这就是“迷失在中部”效应。

更好的做法: 评分、重排序、剪枝。只让相关且非冗余的片段进入上下文窗口。

三步流程:

  1. 相关性重排序: 初始搜索基于向量相似性或关键词匹配返回前50条结果。但“相似”不等于“相关”。使用交叉编码器模型,将查询与每个文档配对进行“实际阅读”后重新排序。虽然更慢,但更准确。重排序后,仅保留前5条。
  2. 冗余移除: 你的文档往往在多个地方重复解释同一概念。营销材料、技术规格、常见问题可能都提到相同的功能。使用嵌入向量对相似片段进行聚类。如果两个片段的余弦相似度 > 0.9,本质上就是重复的,删除其中一个。模型没必要看同一个事实10遍。
  3. 任务感知过滤: 充分利用元数据。每份文档都应带有标签:文档类型、最近更新日期、产品版本、区域、部门。收到查询时,按需过滤。如果有人询问欧盟法规,就别提供美国的合规文档。

实例: 查询是“总结针对欧盟客户的最新退款政策变化。”

  • 之前: 你的向量搜索返回了50个关于退款的片段。部分来自2018年的旧政策,部分来自美国文档,部分来自不面向客户的内部备忘录。LLM 看到了14天与30天的退款窗口、不同的排除项、相互冲突的流程,试图“综合”它们,最终编造出一个根本不存在的政策。
  • 之后: 过滤 region='EU'updated_at >= 2025-01-01,立即砍掉40个不相关的片段。用在问答数据上训练的交叉编码器对剩下的10个进行重排序,保留前5个。检查近似重复项(余弦相似度 > 0.9)。最终只剩下3个高度相关、非冗余的当前欧盟政策片段。

LLM 现在看到的是:清晰的政策表述、具体的时间线、例外清单。全部是最新、相关且一致的。没有幻觉,也不困惑。

结果: 提示词更短、回答更清晰、无矛盾。实验表明,移除噪声上下文可带来15–30%的准确率提升和20–40%的令牌节省。但真正的收益在于“可信度”。当你清楚模型看到了哪些上下文,你就能调试失败;当你一口气丢给它50个片段,你只能“祈祷”。

落地建议: 从简单做起。为所有文档添加一个 last_updated 时间戳。先按日期过滤,这一步就能去掉大多数噪声。然后再引入重排序,再去重。随着你度量到改进,再逐步增加复杂度。

2. 上下文压缩:让每个令牌都有价值

Context Engineering:2026年真正重要的6种技术(完整指南)

原始长文档既可能超出实际可用的上下文限制,也会稀释模型的注意力。实践表明,在保持或提升准确性的同时,可以减少50–75%的令牌使用。

核心洞见: 在将内容放入上下文之前,将长源文档压缩为高密度、与任务强相关的摘要。这不是泛泛的摘要,而是“面向任务”的摘要。

三种压缩策略:

  • 带约束的LLM摘要: 不要只说“总结这篇文档”,而要说“仅保留2025年1月以后提到的定价变化”。约束至关重要,它告诉LLM该保留什么、丢弃什么。每个检索到的文档,根据查询下发特定的约束。输出变成5–10个要点,而不是3000个令牌。
  • 句子级评分: 对文档中的每句话计算其与查询的相关度。使用小模型(如BERT变体)进行打分,按分数排序,仅保留前20%。这称为“上下文保留压缩”。速度快、效果好,能自动保留最相关的信息。
  • 分层摘要: 适用于超长文档。先按章节切分,每章各自摘要,再将各章摘要合并成一个元摘要。你得到三层结构:全文 → 章节摘要 → 最终摘要。根据你的上下文预算选用合适的层级。

实例: 查询是“比较我们API文档中计划A与计划B的速率限制。”

你的API文档有30页,涵盖认证、速率限制、错误代码、Webhooks、分页、SDK、更新日志。其中只有2页提到了速率限制。

3. 分层布局:通过结构显式传递信息优先级

Context Engineering:2026年真正重要的6种技术(完整指南)

避免将所有信息堆砌成一堵“文字墙”。大型语言模型对上下文不同位置的注意力分布并不均匀。结构化的“分区”能帮助模型清晰辨别指令、数据和示例的边界。

这类似于阅读学术论文:摘要、引言、方法和讨论部分各司其职,清晰的结构极大提升了信息提取效率。大型语言模型同样受益于此。为上下文设计一个固定的结构并明确划分区域,是提升模型表现的有效策略。

以下是一个经过验证的有效布局示例:

“`
[系统规则]
你是一位严谨的金融研究助理。
仅依据提供的上下文作答。
若信息缺失,请回答“我没有相关信息”。
切勿对数值数据进行任何假设。

[任务]
目标:使用下方上下文回答用户问题。
输出格式:先给出直接答案,随后提供支持性细节。

[用户画像 / 记忆]
– 风险承受能力:低
– 投资期限:5-10年
– 地区:印度
– 历史会话:曾3次询问HDFC银行,对银行业表现出兴趣
– 偏好:保守型投资,偏好支付股息的股票

[检索到的上下文]
文档 1:HDFC银行2024年第四季度财报
– 营收:45,000亿卢比(同比增长15%)
– 净利润:12,000亿卢比(同比增长18%)
– 不良资产率:1.2%(较1.5%有所改善)
文档 2:2024年第四季度竞争对手分析
– ICICI银行营收增长:12%(同比)
– 印度国家银行利润增长:10%(同比)
– HDFC银行在数字银行采用率方面领先

[工具输出]
– 实时价格(“HDFCBANK”):1,842.50卢比(2分钟前更新)
– 新闻摘要(“HDFCBANK”):“宣布2024财年每股股息为19卢比。除息日为2025年3月15日。”
– 行业分析(“银行业”):“由于积极财报,银行业本月上涨8%。”

[问题]
用户:HDFC银行的最新情况如何?
“`

此结构的作用如下:

  • 系统规则置于最前:模型最先接触到行为边界和核心原则。
  • 任务说明紧随其后:模型明确理解需要达成的目标。
  • 用户画像提供个性化背景:了解用户偏好保守、曾多次询问HDFC,这会影响回答的侧重点和措辞。
  • 检索到的上下文被明确标记为“来源材料”:模型知道应优先引用这些信息。
  • 工具输出被标记为“实时且权威的数据”:模型知晓这些是当前可信信息,而非推测。
  • 问题置于最后:模型在阅读问题前已充分掌握所有背景信息。

这种布局让模型清晰理解“什么是什么”,减少了指令冲突,并允许你独立更新或替换某个分区,而不会影响整体结构。这对于多智能体系统尤为关键,因为每个智能体可能需要不同的上下文布局。

为何它优于非结构化上下文?

你可以自行验证:向大型语言模型提供一段5000个标记、指令、数据、示例和问题混杂的文本;再提供同样信息但采用结构化分区的版本。测试两者的回答准确率。在大多数应用场景中,结构化布局能将准确率提升10-20%。

原因在于注意力模式:模型学习到上下文的首尾部分通常更重要。将关键指令置于开头,将问题置于末尾,相当于“顺应模型的注意力偏好”,而非与之对抗。

4. 动态查询重构:修复模糊问题

Context Engineering:2026年真正重要的6种技术(完整指南)

用户提出的问题常常模糊不清:缺乏关键词、具体实体名称或时间范围。不应直接使用原始问题进行检索。更好的做法是,先让大型语言模型对问题进行改写或扩展。

研究表明,在检索前生成一个优化后的搜索查询,能显著提升最终结果的质量。

这听起来可能违反直觉:增加一个步骤似乎会使流程更糟。但“模糊的查询只会返回模糊的结果;精确的查询才能返回精确的结果。”

以下是三种有效的模式:

  • 面向智能体的“澄清优先”模式:不要猜测用户的意图,而是先请求澄清。智能体可以回复:“为了进行准确的性能对比,我需要了解:时间范围是?需要包含哪些竞争对手?您更关注哪些指标(营收、利润、市场份额)?”在用户补充细节后,再进行检索,结果将非常精准。

注意:此模式仅适用于支持多轮对话的智能体系统。单轮问答系统不宜使用。但对于智能体而言,这是一种强大的策略。为了获得更优质的答案,大多数用户不介意回答2-3个澄清性问题。

3. 查询优化:从模糊问题到精准检索

核心挑战在于,用户的自然语言查询往往简短、模糊,与经过精心编写的文档库在语言风格和信息密度上存在“词汇鸿沟”。直接使用原始查询进行检索,效果通常不佳。以下是两种关键的查询优化技术。

  • HyDE(假设性文档嵌入):一种巧妙的间接检索方法。当用户提问时(例如:“最新的产品改进有哪些?”),不直接用该问题去搜索。而是首先要求LLM基于其知识,生成一个“假设性”的答案(例如:“我们的最新改进包括重新设计的仪表盘、加载速度提升40%、新增协作功能、强化移动端支持。”)。然后,使用这个生成的、语言风格更接近真实文档的“假答案”进行向量嵌入和检索。这种方法之所以有效,是因为生成的答案在措辞和结构上与目标文档库更为匹配(文档更可能写“We redesigned the dashboard”,而非“What are the latest improvements?”),从而能检索到更相关的内容。

  • 多查询扩展:旨在覆盖用户可能使用的不同表达方式。系统会针对原始查询(如:“Latest product improvements”)自动生成3-5个同义或相关的查询变体,例如:“Recent product updates”、“New features released this quarter”、“Product enhancement changelog”、“What’s new in version 2.0”。随后,系统并行执行所有这些扩展查询的检索,最后合并并去重结果。这确保了即使文档使用了不同的术语来描述同一概念,也能被有效召回。

应用实例
用户提问:“我们上季度与竞争对手相比表现如何?”这是一个典型的模糊问题,涉及不明确的时间段、竞争对手和衡量指标。

动态优化步骤
1. LLM将原始查询改写为一个精确的搜索指令:“Compare Q4 2024 (October–December 2024) revenue growth and profit margin of Company X vs Competitors A, B, and C from internal financial reports.” 改写过程明确了具体的时间范围、实体名称和关键指标。
2. 检索系统使用这条丰富的查询进行搜索,同时结合记忆(Memory)中已知的该用户曾关注的竞争对手信息(例如,用户档案中记录过其关心Competitor A和B)。

结果:提供给LLM的上下文(Context)精准对齐了“用户实际想问的”深层意图,而非其“字面打出的”模糊表述,从而能返回更相关、更具体的数据。

实现范式
用户原始查询

LLM查询改写器(可访问:当前日期、用户档案、会话历史)

生成精确的、富含细节的改写后查询

执行检索

4. 记忆与状态:维系“关系”,而非仅存储“事实”

Context Engineering:2026年真正重要的6种技术(完整指南)

一个常见的误区是混淆检索(Retrieval)与记忆(Memory):
* 检索(Retrieval):针对当前查询,从整个文档库中即时搜索相关信息块。每次查询都是独立的、无状态的。
* 记忆(Memory):跨会话持续记住与用户相关的上下文,例如:该用户曾多次询问HDFC银行、偏好保守型投资、位于印度、投资周期为5-10年。记忆的核心是维系与用户的长期“关系”和交互模式

为智能体(Agent)配备持久化记忆,而非简单地将冗长的对话历史塞入上下文,是实现深度个性化的关键。这涉及跨轮次存储和动态回注用户偏好、关键事实及对话摘要。

三类记忆
* 情景记忆:存储过往对话的浓缩摘要。例如:“上次讨论了为法律文档构建RAG系统。用户关注如何处理100+页的合同,最终决定采用512词元的语义分块并设置50词元的重叠。” 这并非完整的对话记录,而是约200词元的“有效信息”提炼。
* 语义记忆:将过往交互的要点存入向量数据库。这使得系统能够识别模式,例如:用户近期连续询问了HDFC的财报、竞争对手和风险因素,从而推断其正在进行深度研究,并可在后续交互中前瞻性地提供相关信息。
* 偏好记忆:存储稳定、不常变化的事实。例如:“用户是投资新手”、“偏好TypeScript胜过JavaScript”、“风险承受能力:低”、“从事医疗健康行业”、“位于孟买时区”。这些信息将持续影响每一次交互的基调与内容。

为何优于堆砌完整对话历史
设想一段50轮的对话,完整历史可能长达20,000个词元,不仅可能超出上下文限制,且大量内容与当前问题无关。更优的方案是:将50轮对话压缩为5个情景摘要(约1000词元),提取10条稳定偏好(约200词元),再根据当前问题检索最相关的3个过往片段(约600词元)。总计约1800词元,远少于20,000,且信息高度聚焦。这使得智能体能在不增加模型负担的情况下,实现有效的个性化服务。

实现范式
* 每轮对话后:调用LLM生成本轮摘要(“用户问了什么?获得了什么回答?表达了何种偏好?”),并将摘要及其向量嵌入存入数据库。
* 每轮对话前:用当前问题检索最相关的3个过往情景摘要。同时,从独立存储中加载该用户的稳定偏好。将所有相关信息插入层次化布局的 [用户档案 / 记忆] 分区。

给编码助手的实例
用户在开发一个React仪表盘。经过10次会话,记忆系统可能存储:
* 技术栈:React, TypeScript, Redux, Jest
* 编码风格:偏好函数式组件与Hooks,变量命名具描述性
* 项目背景:医疗数据可视化仪表盘
* 过往问题:曾在Redux异步操作上遇到困难,后使用Redux Toolkit解决
* 常用模式:使用自定义Hooks进行API调用,UI框架偏好Material-UI

当用户新问:“仪表盘里如何处理实时更新?”
在检索前,智能体已加载的记忆上下文:React/TypeScript项目、使用Redux、偏好Hooks模式、处理医疗数据且需要实时更新。
因此,智能体可以给出高度上下文化的建议:“考虑到你的Redux环境和Hooks偏好,建议使用Redux Toolkit的RTK Query结合WebSocket订阅来实现实时更新,这与现有技术模式契合。具体实现方式如下:……”

6. 工具感知上下文:用实时数据生成可靠答案

Context Engineering:2026年真正重要的6种技术(完整指南)

核心方法:利用模型上下文协议(Model Context Protocol, MCP)与函数调用(function calling),让模型能够以一致的格式,接收来自工具、API和数据库的实时、可落地的数据。

关键在于避免依赖静态知识。上下文工程的核心,正是在运行时动态地改变和重组进入模型上下文的信息。将工具输出作为结构化的上下文注入,能显著减少幻觉,并确保答案的时效性。

纯LLM知识的根本局限在于其静态性——其训练数据有截止日期,无法知晓当下的股价、天气、新闻或你内部数据库的状态。虽然工具能提供运行时数据,但糟糕的工具集成会带来新的问题。

实现工具感知上下文主要有三种模式:

  • MCP风格的工具注册表:Agent无需硬编码工具集成,而是在运行时动态发现可用工具。Agent会询问:“有什么工具能解决这个问题?”MCP服务器则返回工具描述、输入模式和能力说明。模型根据任务自行决定调用哪个工具。这种方式使得添加新工具无需重新部署Agent,只需将其加入MCP服务器,Agent便能自动发现。这是在生产系统中将工具规模扩展到几十甚至上百个的关键方式。
  • 结构化的工具结果:工具不应返回纯文本,而应返回具有清晰字段的JSON(例如 pricedatesourceconfidence)。将这些结果作为层次化布局中的独立分区注入,并标记为权威事实。例如,工具返回 {"price": 1842.50, "currency": "INR", "timestamp": "2025-02-19T14:30:00Z", "source": "NSE", "change": "+2.3%"}。模型看到结构化数据后,能明确知道1842.50是价格,而非随意出现的数字。
  • 护栏式回答:这对于保证可靠性至关重要。明确指示模型:“仅基于[工具输出]与[检索到的上下文]进行回答;如果缺少信息,直接说明‘我当前的数据源中没有该信息。’切勿编造数字或事实。”这能在工具返回不完整数据时避免幻觉。例如,如果价格查询工具失败,模型会如实告知,而非猜测一个价格。

金融助理实例

用户查询:“HDFCBANK的最新股价和今日新闻是什么?”

流程
1. Agent通过MCP发现可用工具:get_live_priceget_newsget_historical_data等。
2. 基于查询,决定调用 get_live_priceget_news
3. 调用后获得结构化响应:
json
{
"get_live_price": {
"symbol": "HDFCBANK",
"price": 1842.50,
"currency": "INR",
"timestamp": "2025-02-19T14:30:00Z",
"change": "+2.3%",
"volume": 12500000
},
"get_news": {
"articles": [
{
"headline": "HDFC Bank Announces ₹19 Dividend",
"summary": "Board approves dividend of ₹19 per share for FY2024",
"date": "2025-02-19",
"source": "Economic Times"
}
]
}
}

4. 将这些数据放入层次化布局的[工具输出]分区,连同用户问题一起提供给模型。
5. 模型给出答案:“HDFC Bank 现价 ₹1,842.50,今日上涨 2.3%。该行已宣布 FY2024 每股 ₹19 的分红。”

注意:模型逐字使用了工具输出中的具体数字,没有产生幻觉,也没有混淆“分红金额”与“股价”。

关键洞见:提示词(Prompt)本身可以简洁,真正的威力来自于“工程化运行时的上下文”。模型成功的原因在于它看到了结构化、权威的数据,而非仅仅依赖于一个“完美的提示词”。

落地建议:先从3-5个关键工具起步,将它们打磨可靠,再逐步扩展。不要一开始就试图集成50个工具。每个工具都需要完善的错误处理、重试、超时管理和结果校验机制。先为少数核心工具构建牢固的基础设施。


决策框架

  • 何时使用选择性检索:当你拥有大型文档集(1000+)、检索返回过多结果(20+个片段)、接近上下文长度上限(例如逼近32K tokens),或需要严格控制成本时。
  • 何时使用压缩:当文档很长(单篇5000+ tokens)、所需信息深埋其中,或你需要按token优化成本时。如果文档本身已经很短(1000 tokens以下),压缩可能得不偿失。
  • 何时使用层次化布局:当你构建多智能体系统(每个Agent需要不同的上下文结构)、管理多源上下文(文档、工具、记忆并存),或需要高可调试性(结构化分区便于定位问题)时。对于简单的单轮、单来源问答,可能过于复杂。
  • 何时使用查询重构:当用户常问模糊问题(常见于消费级产品)、领域有强技术术语而用户不熟悉(如医疗、法律、金融),或需要弥合“用户提问词汇”与“文档专业术语”之间的鸿沟时(例如用户说“refund”,文档写“return merchandise authorization”)。
  • 何时使用记忆:当你构建对话式Agent(聊天产品、编程助手)、用户会多次回访(B2B登录用户)、需要个性化(用户偏好很重要),或对话历史容易超出上下文限制(20+轮对话)时。
  • 何时使用工具感知上下文:当答案需要实时数据(股价、天气、库存)、你在构建能够行动的Agent而非仅会对话的Chatbot、准确性高度依赖当前信息(不能编造数字),或你想最大程度减少幻觉(工具提供事实依据)时。

关于成本:每种技术都有其代价。重新排序需要算力;压缩需要额外的LLM调用;记忆需要存储;工具调用需要访问API。必须衡量收益是否配得上成本。有时,一个更简单、准确率略低但成本不是10倍的流水线,反而是更好的选择。


核心要点

  • 提示词工程(Prompt Engineering):“你是一个乐于助人的助手。请简洁回答。逐步思考。”

  • 上下文工程(Context Engineering):“模型实际需要哪些信息?我如何将这些信息送达?我如何组织这些信息,让模型更关注重点?”

前者是你编写一次、可反复使用的静态文本;后者则是为每个查询动态构建、自适应调整的流水线。

在2026年,生产级系统的竞争力取决于上下文工程。提示词只是最后一步。它固然重要,但并非真正的杠杆支点。

如果你的RAG系统准确率卡在60%,问题在于上下文;你的智能体捏造数据,问题在于上下文;你的成本失控,问题在于上下文;用户抱怨答案不相关,问题依然在于上下文。

若试图用“更好的提示词”来修正幻觉,你调错了层级。

修复上下文流水线,模型自会完成余下的工作。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/23254

(0)
上一篇 1天前
下一篇 2025年11月4日 下午12:50

相关推荐

  • DeepSeek发布Engram条件记忆架构:MoE模型性能提升新路径,实习生主导突破性研究

    这一记忆架构有望成为新的Scaling路径。 智东西1月13日报道,昨晚,DeepSeek再次开源,并发布一篇新论文。此次,他们提出了一种全新的“条件记忆”机制——Engram,旨在让MoE模型在保持巨量参数的同时,更高效地处理语言信息。DeepSeek创始人兼CEO梁文锋、北京大学王选计算机研究所的赵东岩和张辉帅教授均在论文中署名。 Engram架构的核心…

    2026年1月13日
    18700
  • 构建可自我进化的Agentic RAG系统:从医疗健康领域实践到通用设计模式

    Agentic RAG 系统可以被视为一个高维度的决策空间,其中每个维度都对应一项关键设计选择,例如提示工程、智能体协同机制或检索策略。手动调整这些维度以找到最优组合不仅极其困难,而且系统上线后遇到的未知数据也常常会打破在测试环境中有效的配置。 因此,一个更优的解决方案是让系统具备“自我优化”的能力。一条典型的、可自我进化的 Agentic RAG 流水线遵…

    2025年11月19日
    13800
  • 自进化Text-to-SQL系统:基于Stanford ACE框架的智能查询优化革命

    自进化Text-to-SQL系统:基于Stanford ACE框架的智能查询优化革命 当前,大多数Text-to-SQL系统采用多智能体架构与单体式提示词。它们通过一系列分工明确的智能体(如负责模式分析、查询规划和SQL生成的智能体)来协作生成可执行的SQL查询。 尽管这些单体式系统能够工作,将“显示顶级客户”这样的自然语言转换为SQL,但其生成的查询结果往…

    2025年11月6日
    14800
  • 浙大ContextGen突破多实例生成瓶颈:布局控制与身份保持双重精准,刷新SOTA性能

    随着扩散模型(Diffusion Models)的迭代演进,图像生成技术已日趋成熟。然而,在多实例图像生成(Multi-Instance Image Generation, MIG)这一具有广泛用户场景的关键领域,现有方法仍面临核心瓶颈:如何同时实现对多个对象的精确空间布局控制(Layout Control)以及良好的身份特征保持(Identity Pres…

    2025年12月20日
    16900
  • 上下文工程:AI长任务性能优化的核心策略

    Prompts 确立意图。Context 选择事实、历史和工具输出,让 AI 在长任务中保持连贯。 在 AI 应用的早期,我们沉迷于字词的斟酌。微调一个动词,增加一条约束,观察模型是否按预期响应。这些技巧常常奏效,足以让人以为这是一门手艺。直到任务变得更长、更复杂、涉及更多步骤时,一条安静的真相才浮出水面:措辞固然重要,但模型看到什么 更为关键。 Promp…

    2025年11月7日
    16100