Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

Transformer 作者重构安全版 AI 智能体 IronClaw,以四层防御应对 OpenClaw 安全漏洞

AI 智能体在带来便利的同时,也引发了严重的安全担忧:用户的密码和 API 密钥可能暴露于风险之中。

为此,Transformer 论文作者之一的 Illia Polosukhin 出手,从零构建了安全增强版 AI 智能体框架 IronClaw,旨在从根本上解决 OpenClaw 等同类工具存在的安全问题。

| 功能特性 | OpenClaw | IronClaw |
| :— | :— | :— |
| 核心语言 | TypeScript | Rust |
| 凭证处理 | 直接暴露给 AI 智能体 | 加密存储,LLM 无法访问 |
| 工具执行 | 在主环境中运行 | WASM 沙箱隔离运行 |
| 部署环境 | 标准服务器 | 可信执行环境(TEE) |
| 数据隐私 | 存在泄露风险 | 本地加密,无遥测数据 |

IronClaw 项目已在 GitHub 开源,提供 macOS、Linux 和 Windows 的安装包,支持本地与云端托管部署。目前项目处于快速迭代阶段,v0.15.0 版本的二进制文件已可供下载。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

Polosukhin 也在 Reddit 论坛开设问答帖,回应社区关切,讨论热度颇高。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

OpenClaw 的流行与安全危机

Polosukhin 本人曾是 OpenClaw 的早期用户,并盛赞其代表了期待已久的技术变革。然而,OpenClaw 的安全现状却堪称灾难:远程代码执行、提示注入攻击、恶意技能窃取密码等漏洞相继被曝光。

安全专家指出,互联网上存在超过 25000 个缺乏充分安全控制的公开实例,并将其形容为一场“安全垃圾火灾”。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

问题的根源在于其架构设计。当用户将邮箱 Bearer Token 等凭证交给 OpenClaw 时,这些信息会被直接发送至大语言模型提供商的服务器。Polosukhin 指出,这意味着用户的所有信息,甚至包括未明确授权的数据,都可能被相关公司的员工访问到,用户隐私无法得到保障。

基于 Rust 的重构与四层纵深防御

IronClaw 是使用 Rust 语言对 OpenClaw 的完全重写。Rust 的内存安全特性能够从根本上消除缓冲区溢出等传统漏洞,这对于处理敏感凭证的系统至关重要。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

在安全架构上,IronClaw 构建了四层纵深防御体系:

  1. 内存安全:由 Rust 语言本身提供基础保障。
  2. WASM 沙箱隔离:所有第三方工具和 AI 生成的代码都在独立的 WebAssembly 容器中运行,恶意代码的影响范围被严格限制。
  3. 加密凭证保险库:所有 API 密钥和密码均使用 AES-256-GCM 加密存储,每条凭证都绑定策略规则,限定其仅能用于特定域名。
  4. 可信执行环境(TEE):利用硬件级隔离保护数据,即使云服务提供商也无法访问用户敏感信息。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

该设计的核心在于:大模型本身永远无法接触原始凭证。仅当智能体需要与外部服务通信时,凭证才会在网络边界被安全注入。Polosukhin 举例说明,即使模型遭受提示注入攻击,试图窃取用户的 OAuth 令牌,凭证存储层也会直接拒绝该请求并记录告警。

针对社区对 IronClaw 走红后可能重蹈 OpenClaw 覆辙的担忧,Polosukhin 回应称,其架构已从根本上堵住了核心漏洞。凭证全程加密且不接触 LLM,第三方技能只能在容器内运行。即便通过 CLI 访问,也需要用户系统钥匙串解密,单独的加密密钥毫无用处。团队也计划在核心版本稳定后进行红队测试和专业安全审计。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

应对提示注入与部署策略

对于业界难题——提示注入攻击,IronClaw 当前采用启发式规则进行模式检测,未来计划部署可持续更新的小型语言分类器来识别注入模式。Polosukhin 承认,提示注入还可能直接篡改代码库或发送恶意消息,应对此需要更智能的、无需查看输入内容即可审查智能体行为意图的策略系统,这方面“还需要更多工作,欢迎社区贡献”。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

关于部署方式,Polosukhin 认为纯本地方案存在设备关机则智能体停止、移动端能耗高、复杂长任务难运行等局限。他认为“机密云”是目前的最优折中方案,能在提供接近本地隐私保障的同时,满足“永远在线”的需求。用户还可设置动态策略,例如在跨境旅行时自动添加额外安全屏障。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

更大的愿景:用户自有 AI

Polosukhin 并非普通的开源开发者。2017 年,他作为八位共同作者之一发表了开创性的《Attention Is All You Need》论文,提出的 Transformer 架构奠定了当今大语言模型的基础。论文脚注标明“贡献均等,排名随机”。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

同年,他离开谷歌并创立 NEAR Protocol,致力于融合 AI 与区块链技术。IronClaw 是其更大战略构想“用户自有 AI”的一部分。在该愿景中,用户完全掌控自己的数据和资产,AI 智能体在可信环境中代为执行任务。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

NEAR 已为此搭建了 AI 云平台和去中心化 GPU 市场等基础设施,IronClaw 是这套体系的运行时层。Polosukhin 甚至开发了一个智能体互雇市场,专业化的智能体可注册上线,通过积累声誉来获取更高价值的任务。

Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

被问及普通人如何适应 AI 时代时,Polosukhin 的建议是尽快采用 AI 智能体的工作方式,学会将完整工作流程交给其自动化处理。早在 2017 年,他便预言“未来你只需要和计算机对话,不再需要写代码”。如今,这一切正在成为现实。

“AI 智能体是人类与线上一切交互的终极界面,” Polosukhin 总结道,“但让我们把它做得安全。”

项目地址:
https://github.com/nearai/ironclaw

参考链接:
[1] https://www.reddit.com/r/MachineLearning/comments/1rlnwsk/d_ama_secure_version_of_openclaw/


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/24552

(0)
上一篇 6小时前
下一篇 6小时前

相关推荐

  • Heretic工具深度解析:突破语言模型安全限制的技术革命与伦理挑战

    在人工智能快速发展的今天,语言模型的安全对齐机制已成为行业标准配置。然而,这种旨在防止生成有害内容的安全机制,在实际应用中却引发了新的争议。许多开发者发现,当前主流商业模型如GPT-5等,在涉及特定话题时表现出过度保守的倾向,频繁触发安全拒绝机制,这在研究、创作等正当场景中造成了显著障碍。 从小说创作需要描述必要的情节冲突,到网络安全研究需要分析潜在漏洞;从…

    2025年11月17日
    17000
  • 医疗AI的临床革命:从技术炫技到基层赋能,中国专业模型如何实现安全与有效的双重突破

    在医疗资源分布不均、基层诊疗压力巨大的现实背景下,人工智能技术正从实验室走向临床一线,开启一场深刻的医疗变革。根据最新统计,中国糖尿病患者已达2.33亿人,远超现有医疗资源的承载能力。基层医生每天面对的是混杂的真实世界:心血管、呼吸、消化等各种疾病交织出现;一旦遇上少见症状或复杂共病,往往会感到吃力,甚至陷入“想得不全、顾得不够”的困境。这种结构性矛盾,为医…

    2025年11月17日
    13200
  • MedGPT登顶全球临床安全评测:AI如何破解基层医疗“诊中怕误判、诊后怕失管”双重困境

    在基层医疗的日常实践中,医生面临着病种繁杂、节奏飞快的双重压力。从清晨到日暮,诊室内外的工作负荷持续攀升——查文献、请会诊等理想化操作往往被压缩,而慢病患者增多带来的随访任务更让医疗资源捉襟见肘。这种结构性困境,正是国家卫健委近期发布《促进和规范“人工智能+医疗卫生”应用发展的实施意见》试图破解的核心议题。政策将“人工智能+基层应用”列为八大重点方向之首,并…

    2025年11月17日
    15600
  • 思科开源安全大模型Foundation-sec-8B:网络安全领域的专用AI新范式

    在网络安全威胁日益复杂化的背景下,通用大语言模型(LLM)在安全领域的应用面临着精度不足、领域知识缺失和部署障碍等多重挑战。2025年4月28日,思科推出的开源安全大模型Foundation-sec-8B(Llama-3.1-FoundationAI-SecurityLLM-base-8B)标志着网络安全AI进入专用化新阶段。这款80亿参数的开放权重模型专为…

    大模型安全 2025年4月29日
    17200
  • 大模型安全全景图:198篇研究揭示API密钥窃取、越狱攻击与四大场景漏洞防御策略

    “我们公司用大模型处理客户数据,结果 API 密钥被偷,损失百万”“ChatGPT 又被‘越狱’了,生成了制作危险物品的教程”…… 大型语言模型(LLM)已从实验室走向企业生产环境,成为降本增效的关键工具。然而,其广泛应用也引来了日益精密的攻击——从训练数据投毒以操控模型输出,到利用单行代码劫持模型行为,再到窃取企业私有数据,大模型安全已成为攻防博弈的主战场…

    2025年9月29日
    18500