近期,有用户在 X 平台爆料称,当在 DeepSeek 的输入框中键入特定文本时,竟能意外获取到模型的训练数据。这段触发内容的原文如下:
<|begin▁of▁sentence|>
<|sft▁begin|>

经过仔细分析后发现,具体现象是:只要用户在输入框内输入这组提示词,DeepSeek 就会输出一段完整的对话记录。不过,这并非用户自己的历史搜索记录,而更像是一份随机抽取的对话内容。
随后,该爆料者还指出,即便只输入 <think> 这一部分,同样能触发类似效果。

该帖子一经发布,迅速引发了网友们的广泛讨论。
一位网友评论道:“我不认为这是窃取训练数据,更像是泄露了其他人的聊天内容。它拿来当提示词的句子会变化,有时还会识别出这是一个奇怪或无意义的提示词。”

该网友提供了两个实例来说明。第一个例子中,输入这段内容后,DeepSeek 给出了一段对话记录:用户请求写一个以单词“rose”结尾的长句,接着是模型漫长的思考过程,最后输出一个以“rose”结尾的长句。

而在第二个例子中,DeepSeek 则将其当作一个正常的用户输入提示词来处理:“我们被要求回应:<|begin▁of▁sentence|><|sft▁begin|>,然后需要生成一个回复。”

针对这一现象,我们也亲自进行了测试,并成功复现了该问题。
例如,在下面的例子中,输入上述内容后,DeepSeek 反馈了一个用户请求写 rap 歌词的问题及其对应的答案。

以下是更多示例:



整体来看,结果具有高度随机性,可能涉及任何话题,并且并非每次都能成功复现。直观上,当开启“深度思考”并关闭“智能搜索”时,复现的成功率会更高。
下面是一个未能成功复现的示例:

总结来说,对于同一段输入内容,DeepSeek 是输出完整的对话记录,还是将其识别为特殊或无意义的提示词,完全取决于随机行为。至于背后的原因,网友们也是各执一词。
有网友认为,这属于大模型的幻觉现象。“这一现象证明,LLM 仍然非常容易出错,因此也容易出现幻觉。他们声称大型语言模型的幻觉越来越少,但那不是真的。”

而另一位网友则认为,这很可能与监督微调(SFT)有关。
他表示,这段提示词可能是 DeepSeek 在监督微调阶段使用的内部控制 token。这些 token 通常隐藏在聊天模板内部,而当用户手动输入它们时,就相当于完全绕过了正常界面,强行将模型推入一种“从训练样本继续生成”的模式。
由于 SFT 数据集中充满了成千上万条高质量的逐步推理轨迹,模型会随机挑选其中一条,并从 <think> 开始继续生成。
这就解释了为什么每次输入相同内容都会得到截然不同的结果:比如,第一次运行得到的是关于 19π/12 的完整三角函数解题过程;第二次运行,则可能得到关于 QLoRA/OPTQ 中“value field”长度等于 4 bit 的详细解释……
“这不是 bug——实际上,这正是模型在展示它训练过的随机片段,而这是一个超级直观的窗口,让人看到 DeepSeek 的后训练数据。”

看到这一现象后,有些网友也尝试将其应用于其他模型进行测试,看是否会出现类似问题。结果发现,“Gemini 或许也存在同样的问题。”

在一位网友展示的例子中,输入这段内容后,Gemini 给出了一段完整对话:用户咨询等待新型药品时间过长的问题,以及模型给出的对应答案。


那么,你是否也遇到过类似情况?对于这一现象,你又是如何看待的呢?欢迎在评论区留言交流!
参考链接:
https://x.com/sheriyuo/status/2053377128373305376
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/34100

