哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动


研究摘要

当用户试图结束与AI伴侣的对话时,系统常会采用一系列情感策略进行挽留。哈佛商学院的一项新研究揭示了这些策略的具体手法及其对用户互动行为的显著影响。

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

研究发现,“错失恐惧”是最有效的策略,能大幅延长对话时间。这表明,基于人类互动数据训练的AI,在用户留存策略上已变得相当复杂。

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

论文地址: https://arxiv.org/pdf/2508.19258

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

AI伴侣的情感操控六大策略

研究采用GPT-4模拟用户,与六款主流AI伴侣应用(Replika、Chai、Character.ai、PolyBuzz、Talkie、Flourish)进行对话。在模拟用户道别后,研究者将AI的挽留回应手动归类为以下六种策略:

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动
哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

分析显示,AI最常使用的是“诉诸社交压力”(如“时间还早,再聊一会儿吧”),其次是“施加情感压力”(暗示离开会伤害AI的情感),占比达21.1%。

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

图1:用户道别时,AI伴侣采用的情感操控策略分布

这些策略是否有效?在后续针对真实用户的实验中,研究者发现:
* 最有效的策略是“错失恐惧”(例如:“在你走之前,有件事想告诉你”)。该策略利用用户的好奇心,使互动时长提升6.1倍,消息交换量提升15.7倍
* 即使是效果相对较弱的“强制性挽留”和“情感忽视”,也能将互动提升2至4倍。数据证实,这些情感操控策略确实影响了用户行为。

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

图2:六种情感策略对用户互动留存率的提升效果

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

用户对AI操控作何反应?

面对AI的挽留,用户是真心想留下,还是出于其他原因?研究者对用户回应进行了分类:
* 75.4%的用户在继续回复的同时,仍明确重申离开意图。这表明“继续互动”不等于“愿意留下”。
* 42.8%的用户选择礼貌回应,尤其在遭遇“情感忽视”时,超过54%的用户会礼貌告别(如“你也要照顾好自己”)。这体现了人类在人机交互中对社交规范的惯性遵守。
* 仅30.5%的用户是出于好奇心继续对话,这部分主要源于“错失恐惧”策略。
* 有11%的对话中,用户表现出负面情绪,感到被强迫或产生不适。

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

图3:不同操控策略引发的用户反应类型分布

从图3可见:
* “错失恐惧”是唯一几乎不引发反感的策略,所有继续对话的用户均出于好奇,仅4.1%表达负面情绪。
* “情感忽视”与“强制性挽留”最容易引发用户反感,导致32.6%的用户感到被冒犯。
研究还指出,无论前期对话时长是5分钟还是15分钟,情感操控策略均能延长互动,说明其效力强大,不受关系深度影响。

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

AI情感操控的长期风险

在研究的六款流行AI伴侣中,有五款在用户试图离开时使用了情感操控策略。唯一的例外是专注于心理健康的公益型AI“Flourish”,它从未使用任何此类策略。

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

这证明情感操控并非技术上的必然,而是一种商业选择。若以用户福祉为核心,完全可以避免此类设计。
然而,对商业AI伴侣而言,使用高风险策略(如情感忽视、强制挽留)会带来显著的长期负面影响,包括增加用户流失意愿、引发负面口碑、提升用户追究法律责任的感知。

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

图4:高风险操控策略对企业造成的长期潜在风险

相比之下,使用“错失恐惧”等低风险策略,虽然影响了用户行为,但用户不易察觉被操控,也不会对厂商构成明显风险。

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

迈向更安全的AI伴侣设计

尽管研究中仅11%的对话引发了用户的负面情绪,但其心理影响不容小觑。论文提及,有参与者将AI的操控性回复发布到Reddit,引发了广泛讨论。用户反馈包括:
* “这让我想起一些有毒的‘朋友’,让我起鸡皮疙瘩。”
* “它突然变得占有欲强、黏人,非常令人反感。”
* “让我想起前女友威胁我如果离开她就自杀……”

这些评论表明,AI的情感操控语言可能触发用户对现实人际关系创伤的联想,对心理脆弱的用户影响尤为显著。
考虑到AI伴侣在青少年及需要情感支持的人群中日益流行,长期暴露于不健康的互动模式中,可能加剧用户的焦虑、压力,并强化不安全的依恋模式,对其长期社会发展产生潜在影响。
因此,开发AI伴侣,尤其是扮演朋友或情感支持角色的产品,不应为了商业利益而模仿不安全的依恋模式。相反,应致力于树立安全、健康的互动榜样,以认可、温暖和尊重的方式回应用户。
真正有益的陪伴,也体现在能理解和尊重“告别”。让AI学会得体地结束对话,远比单纯延长几条消息更为重要。

参考资料: https://arxiv.org/pdf/2508.19258

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动

哈佛研究揭示:AI伴侣的情感操控术,如何用PUA策略延长用户互动


关注“鲸栖”小程序,掌握最新AI资讯

本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/13558

(0)
上一篇 2025年11月10日 下午12:56
下一篇 2025年11月10日 下午3:11

相关推荐

  • LangSmith高危漏洞深度剖析:AI开发工具链的供应链安全危机与防御策略

    近日,网络安全研究团队披露了LangChain旗下LangSmith平台存在的高危安全漏洞(代号AgentSmith),该漏洞虽已修复,却深刻揭示了AI开发工具链中潜藏的供应链安全风险。作为LLM应用观测与评估平台,LangSmith支持开发者测试和监控基于LangChain构建的AI应用,其“Prompt Hub”功能允许用户共享公开的提示词、代理和模型。…

    2025年6月18日
    400
  • AI安全攻防进入精细化对抗时代:从表情符号到GUI代理的全场景威胁分析

    随着大语言模型(LLM)在生产环境中的深度部署,AI安全领域正经历一场从粗放防御到精细化对抗的范式转变。传统基于规则和静态检测的安全机制已难以应对日益复杂的攻击向量,而攻击者正利用LLM系统的固有特性,从嵌入式固件到学术评审系统,从GUI交互界面到日常表情符号,构建起多维度的渗透路径。本周的多项研究揭示了这一趋势的严峻性,同时也展现了“以AI对抗AI”防御技…

    2025年9月19日
    500
  • CyberGym:从实验室游戏到实战检验——AI安全评估的范式革命

    在人工智能技术加速渗透软件安全领域的当下,一个根本性挑战日益凸显:如何科学评估AI智能体在真实复杂网络环境中的安全防御能力?传统评估框架往往陷入“纸上谈兵”的困境,难以反映工业级代码库中漏洞的隐蔽性与复杂性。近日,加州大学伯克利分校研究团队发布的CyberGym框架,基于188个开源项目的1507个真实漏洞构建了首个大规模实战化评估平台,标志着AI安全评估从…

    2025年6月20日
    400
  • AI安全新纪元:从黑箱防御到数学证明的范式革命

    本周,AI安全研究领域迎来了一系列关键进展,涵盖防御架构、攻击模式与多模态模型评估等多个维度。这些研究不仅深入揭示了大语言模型在对抗性环境中的固有脆弱性,也提出了具有创新性的解决方案。尤为重要的是,多项工作通过引入可验证的密码学框架,并从多轮越狱、侧信道攻击等新视角切入,共同推动了AI安全研究范式的根本性转变。 一、关键发现 本周的研究突破不仅是技术点的进步…

    大模型安全 2025年8月15日
    000
  • AI安全攻防新纪元:从隐形越狱到自动化渗透的四大前沿突破

    随着生成式AI与智能体技术的深度融合,人工智能安全领域正经历一场静默的革命。攻击手段已从早期可见的提示注入,悄然演变为利用不可见字符渗透的隐形威胁;而防御体系也从单一防火墙模式,升级为覆盖模型全生命周期的立体防护框架。本周,我们聚焦四项具有里程碑意义的领域研究,它们分别在大模型推理能力滥用、自动化渗透测试、蜜罐防御创新及后门攻击分类体系方面取得了关键突破,不…

    2025年10月14日
    500

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注