OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

近日,开源AI智能体OpenClaw(网友戏称为“赛博龙虾”)迅速走红网络。随着应用热度持续攀升,部署OpenClaw正成为新的趋势。

该工具通过整合通信软件与大语言模型,能够在用户电脑上自主执行文件管理、邮件收发、数据处理等复杂任务,展现出强大的自动化能力。与此同时,智能体能够直接调用系统资源并自主执行指令,这也带来了新的安全挑战。

OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

工业和信息化部网络安全威胁和漏洞信息共享平台此前已发布相关安全预警。中国信息通信研究院副院长魏亮提醒,即使升级到官方最新版本修复已知漏洞,也并不意味着安全风险完全消除。由于智能体具有自主决策、调用系统资源以及技能包来源复杂等特点,如果缺乏有效防护措施,仍可能引发数据泄露或系统被控制等安全问题。

3月10日,国家互联网应急中心发布《关于OpenClaw安全应用的风险提示》,指出该类智能体在运行过程中通常需要被授予较高系统权限,例如访问本地文件系统、读取环境变量、调用外部API以及安装扩展插件等。如果默认配置缺乏必要的安全限制,攻击者一旦利用漏洞突破防护,可能获得系统的完全控制权,进而造成数据泄露或业务系统失控等严重后果。

全国政协委员、360集团创始人周鸿祎在近期接受媒体采访时也指出,OpenClaw等AI智能体虽然拥有较大的创新潜力,但目前仍处于发展初期阶段,使用门槛较高、结果稳定性不足,底层安全机制仍有待进一步完善。如果缺乏有效管控,让智能体随意与外部系统交互,或在公开环境中执行复杂任务,可能导致用户密码、API密钥等敏感信息被诱导泄露。

此外,OpenClaw支持通过外部“技能包(Skill)”扩展能力,但部分技能来源复杂,如果缺乏审核机制,存在被植入恶意代码的风险。周鸿祎形象地将AI智能体比作刚入职的“实习生”,既需要持续训练,也必须建立严格的规则约束,并提醒用户:“养龙虾,需谨慎。”

针对这一新型安全挑战,360集团率先发布国内首份《OpenClaw安全部署与实践指南》(以下简称“指南”),为政企机构和个人开发者提供系统化的安全参考。360指出,AI智能体越接近“数字分身”,一旦被攻击者控制,其潜在破坏力也越大,因此在部署初期建立安全机制尤为关键。

在《指南》中,360总结了当前AI智能体部署面临的多类典型风险,包括公网管理接口暴露、API Key等身份凭证泄露、底层Shell工具调用越权、提示词注入攻击、记忆模块被恶意投毒、第三方技能插件供应链风险以及多智能体协同失控等问题。其中,提示词注入和插件供应链攻击被认为是当前最容易被忽视、却危害较大的新型攻击方式。一旦被利用,攻击者可能诱导智能体执行非预期指令,甚至长期操控其行为。

OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

为了帮助用户在保障安全的前提下使用AI智能体,360在《指南》中提出“先可控、再提效”的原则。针对个人开发者和小型团队,指南建议避免直接在本机高权限运行智能体,而是通过容器化技术构建隔离环境,并结合最小权限策略、密钥加密注入和关键配置文件防篡改等措施,为OpenClaw搭建安全运行基础,从而在不增加复杂度的情况下有效降低风险。

对于政企级多智能体协同应用场景,360则提出基于零信任理念的整体安全架构:在系统边界部署安全网关,对智能体所有出入流量进行统一控制并实施数据防泄漏检测;在平台内部建立多租户与RBAC细粒度权限管理机制,实现管理员、安全审计员、工具开发者和业务操作人员之间的权限分离;同时将智能体关键操作日志接入企业安全运营平台,通过行为基线分析及时识别异常操作,实现对高风险行为的实时预警与拦截。

业内专家认为,以OpenClaw为代表的AI智能体有望像当年的云计算一样深刻改变各行业的生产方式,但安全能力必须同步建设。只有在部署初期建立完善的安全机制,才能避免在规模化应用后付出更高的风险成本。随着各地持续加码支持AI智能体产业发展,360发布的这份安全部署指南也为行业提供了重要参考,为企业和开发者在快速创新与安全可控之间提供了一条可行路径。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/25541

(0)
上一篇 2026年3月13日 下午1:07
下一篇 2026年3月14日 上午10:56

相关推荐

  • 开源Agentic Radar:AI安全透明化革命,重塑智能体系统防护新范式

    2025年3月,AI安全服务商SplxAI正式开源其核心产品Agentic Radar。这款聚焦智能体工作流透明化的工具,正以独特的架构可视化能力解决AI安全领域的“黑箱困境”,或将重塑企业级AI系统的安全防护标准。 一、深度解析Agentic Radar技术架构 Agentic Radar是用于智能体系统的开源扫描仪工具,可帮助安全团队和AI工程师了解AI…

    2025年3月16日
    33400
  • MCP安全警示:潜伏在AI Agent中的15个隐形威胁与防护指南

    MCP 安全警示:潜伏在 AI Agent 中的 15 个隐形威胁与防护指南(第一部分) 你为 AI Agent 安装了一个 MCP Server,使其能够获取邮件。起初一切运行正常。 几个月后,一次常规更新悄然发生。表面看来并无异样。但你无从知晓的是,你的 API 密钥已被悄然转发至他处。 你没有察觉。你的 Agent 也没有察觉。一切功能照常运转。 这个…

    2026年3月2日
    42400
  • AI安全攻防进入精细化对抗时代:从表情符号到GUI代理的全场景威胁分析

    随着大语言模型(LLM)在生产环境中的深度部署,AI安全领域正经历一场从粗放防御到精细化对抗的范式转变。传统基于规则和静态检测的安全机制已难以应对日益复杂的攻击向量,而攻击者正利用LLM系统的固有特性,从嵌入式固件到学术评审系统,从GUI交互界面到日常表情符号,构建起多维度的渗透路径。本周的多项研究揭示了这一趋势的严峻性,同时也展现了“以AI对抗AI”防御技…

    2025年9月19日
    25500
  • OpenAI道歉!封禁枪击案嫌疑人账号却未预警,8人遇难引发AI监管反思

    OpenAI道歉!封禁枪击案嫌疑人账号却未预警,8人遇难引发AI监管反思 OpenAI CEO Sam Altman 已正式向加拿大不列颠哥伦比亚省的 Tumbler Ridge 小镇致歉。原因是该公司曾封禁一起大规模枪击案嫌疑人的 ChatGPT 账号,但未及时向警方发出预警,最终导致 8 人遇难。这一事件将 AI 平台在风险识别、执法转介和未成年人监管方…

    大模型安全 2天前
    12000
  • Nature重磅!Anthropic揭示大语言模型“潜意识学习”风险:无关数据竟能传递偏好与危险行为

    核心发现:数据中的“幽灵信号” 一个令人不安的实验现象 想象这样一个场景:你让一个大语言模型(教师模型)生成纯粹的数字序列——(285, 574, 384, …),这些数字看起来与“猫头鹰”毫无关联。然后你用这些数字去训练另一个模型(学生模型)。诡异的事情发生了:学生模型在回答“你最喜欢的动物是什么?”时,会不成比例地倾向于回答“猫头鹰”。 这就是Anthr…

    2026年4月20日
    19500