Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

用AI辅助编程正酣,却被突然要求实名认证。

Claude新规上线,引发用户强烈不满。一个AI对话工具,开始要求用户提供身份证件。

Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

其规则甚至严格到要求用户手持身份证原件进行实时拍照验证。

Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

此类规则通常被称为KYC(了解你的客户),是企业用于核实客户身份的合规程序,常见于金融领域。Claude的KYC要求明确且严格:
* 仅接受护照、驾照、身份证原件验证。
* 不接受任何形式的复印件、屏幕截图、扫描件或数字证件。
* 学生证、员工证、临时身份证等均不在认可范围。

颇具讽刺意味的是,许多用户发现,身份验证并非“继续使用服务”的通行证,反而可能是账号被封禁的前兆。

Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

官方FAQ更是直接表明了这一点,预先设置了“为什么我的账号在验证后被封禁了?”的解答条目。

Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

此外,负责执行验证的第三方供应商Persona也引发了隐私担忧。其隐私条款显示,有多达17个子处理器可能接触用户数据,并且Persona有权将这些数据用于改善其反欺诈模型。这意味着,用户提交的身份信息,有可能被用于训练第三方公司的算法。

15岁天才程序员遭遇封号

若非此次身份核查,许多用户并未意识到Claude是一款限制18岁以下用户使用的产品。

网友llm_nerd讲述了其子的经历:他15岁的儿子是一名游戏程序员,通过接洽开发项目赚取的收入甚至超过了父亲。该少年订阅了Claude Max服务,但账号近日突然被暂停,理由是系统检测到账号可能由未成年人使用,要求提供年满18岁的身份证明。

Anthropic发出的邮件直言不讳:检测到账户由儿童使用,违反政策,故予封禁。

Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

不过,账户获得了整月订阅费用的全额退款。此事引发了更深层的讨论:如果未来编程的核心技能是驾驭AI,而使用高级AI编程工具需年满18岁,这是否意味着软件开发本身成了“限制级”活动?

Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

据悉,这位少年程序员已转而使用OpenAI的Codex继续其工作。目前,OpenAI和Gemini的最低使用年龄为13岁,而Anthropic则设定为18岁。

另有用户从退款机制中发现了“漏洞”:既然检测到未成年即会封号退款,是否意味着可以在订阅服务临近月底时,主动触发年龄检查,从而“白嫖”当月的使用额度?随之而来的问题是:是否存在能稳定触发该检查的特定提问方式?

Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

模型自身亦不认可新规

有网友将Claude的新KYC规定发送给其最强模型版本Claude Opus 4.6进行评价。

结果,Claude Opus系统性地否定了自家公司的这项政策,甚至鼓励用户将此事公开,以批评其东家的决策。

Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

实际上,Anthropic此前已构建了多层安全防线:
1. 支付层面:注册付费版需绑定信用卡,其本身已通过银行体系的KYC审核。
2. 行为监控:据泄露的代码显示,Anthropic拥有精细的遥测系统,监控使用行为、API调用模式等。
3. 模型层面:Claude模型本身能在每次对话中实时判断并拒绝潜在的有害请求。

因此,新增的身份证验证究竟意在防范何种风险,令许多用户感到困惑。更重要的是,身份信息一旦泄露,对用户造成的伤害是永久性的,这与可挂失的信用卡盗刷风险截然不同。当一款AI产品自身的顶级模型都能论证“公司KYC政策无意义”时,或许Anthropic应该咨询一下其内部最强的安全专家。

它的名字叫Mythos。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/30508

(0)
上一篇 2小时前
下一篇 2小时前

相关推荐

  • AI安全前沿突破:从零样本检测到供应链风险量化,四大技术路径重塑防御范式

    本周AI安全领域迎来关键进展,研究焦点覆盖对抗攻击防御、内容真实性检测、软件供应链安全及隐私保护四大核心方向。其中,提示注入防御实现零误报突破、AI生成文本检测进入零样本时代、LLM代码生成风险首次量化、RAG系统隐私威胁模型形式化等成果,标志着AI安全正从被动响应转向主动防御的新阶段。 在提示注入攻击防护领域,LLMZ+提出的上下文白名单机制实现了范式级突…

    2025年9月26日
    26800
  • Claude Code入侵智能家居:AI逆向工程狂欢暴露物联网安全危机

    Andrej Karpathy受网友启发,进行了一项有趣的实验:让Claude Code入侵他家的Lutron智能家居系统。 整个过程如同黑客电影的翻版。AI先在本地网络中定位控制器,扫描开放端口,随后在线查阅设备文档,甚至指导用户完成证书配对。最终,它成功接管了全屋的灯光、窗帘、空调和各类传感器。 “我直接删掉了那个又慢又难用的官方App。”Karpath…

    2025年12月28日
    25900
  • 大模型安全攻防全景:从红队评估到运行时防护的开源武器库深度解析

    在生成式人工智能技术快速演进的时代,大模型的安全问题已从理论探讨演变为迫在眉睫的实战挑战。本文将从技术架构、攻防逻辑和应用场景三个维度,系统分析当前大模型安全领域的核心工具生态,为从业者提供全面的技术参考和实践指南。 ## 一、安全评估框架的技术演进与攻防逻辑 大模型安全评估工具的核心价值在于主动发现潜在风险。传统软件安全测试方法在大模型场景下面临着根本性挑…

    大模型安全 2025年7月4日
    26200
  • MCP安全危机:模型上下文协议的三大设计缺陷与系统性风险分析

    在人工智能技术快速发展的浪潮中,Model Context Protocol(MCP)作为连接大模型与外部工具的标准化接口协议,正逐渐成为AI应用生态中的关键基础设施。然而,这一被誉为“模型统一通用接口”的技术方案,其简洁优雅的设计背后却隐藏着可能颠覆整个系统的安全漏洞。本文将从技术架构、攻击机制和防御策略三个维度,深入剖析MCP协议存在的三大设计缺陷及其引…

    2025年4月22日
    25200
  • 奥特曼豪宅再遭枪击!AI末日论极端分子升级暴力,大模型安全警钟长鸣

    OpenAI首席执行官山姆·奥特曼位于旧金山的豪宅在短时间内遭遇第二起袭击,此次袭击者直接开枪射击。身处AI浪潮中心的奥特曼,其个人安全正随着行业争议与个人声望的激增而面临严峻挑战。AI末日论极端分子的暴力行为正在升级,敲响了AI安全与社会治理的警钟。 豪宅再遭袭击,嫌疑人开枪后逃逸 继上周五(4月10日)遭遇燃烧弹袭击后,当地时间周日(4月12日)凌晨,奥…

    3天前
    16500