OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

近日,开源AI智能体OpenClaw(网友戏称为“赛博龙虾”)迅速走红网络。随着应用热度持续攀升,部署OpenClaw正成为新的趋势。

该工具通过整合通信软件与大语言模型,能够在用户电脑上自主执行文件管理、邮件收发、数据处理等复杂任务,展现出强大的自动化能力。与此同时,智能体能够直接调用系统资源并自主执行指令,这也带来了新的安全挑战。

OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

工业和信息化部网络安全威胁和漏洞信息共享平台此前已发布相关安全预警。中国信息通信研究院副院长魏亮提醒,即使升级到官方最新版本修复已知漏洞,也并不意味着安全风险完全消除。由于智能体具有自主决策、调用系统资源以及技能包来源复杂等特点,如果缺乏有效防护措施,仍可能引发数据泄露或系统被控制等安全问题。

3月10日,国家互联网应急中心发布《关于OpenClaw安全应用的风险提示》,指出该类智能体在运行过程中通常需要被授予较高系统权限,例如访问本地文件系统、读取环境变量、调用外部API以及安装扩展插件等。如果默认配置缺乏必要的安全限制,攻击者一旦利用漏洞突破防护,可能获得系统的完全控制权,进而造成数据泄露或业务系统失控等严重后果。

全国政协委员、360集团创始人周鸿祎在近期接受媒体采访时也指出,OpenClaw等AI智能体虽然拥有较大的创新潜力,但目前仍处于发展初期阶段,使用门槛较高、结果稳定性不足,底层安全机制仍有待进一步完善。如果缺乏有效管控,让智能体随意与外部系统交互,或在公开环境中执行复杂任务,可能导致用户密码、API密钥等敏感信息被诱导泄露。

此外,OpenClaw支持通过外部“技能包(Skill)”扩展能力,但部分技能来源复杂,如果缺乏审核机制,存在被植入恶意代码的风险。周鸿祎形象地将AI智能体比作刚入职的“实习生”,既需要持续训练,也必须建立严格的规则约束,并提醒用户:“养龙虾,需谨慎。”

针对这一新型安全挑战,360集团率先发布国内首份《OpenClaw安全部署与实践指南》(以下简称“指南”),为政企机构和个人开发者提供系统化的安全参考。360指出,AI智能体越接近“数字分身”,一旦被攻击者控制,其潜在破坏力也越大,因此在部署初期建立安全机制尤为关键。

在《指南》中,360总结了当前AI智能体部署面临的多类典型风险,包括公网管理接口暴露、API Key等身份凭证泄露、底层Shell工具调用越权、提示词注入攻击、记忆模块被恶意投毒、第三方技能插件供应链风险以及多智能体协同失控等问题。其中,提示词注入和插件供应链攻击被认为是当前最容易被忽视、却危害较大的新型攻击方式。一旦被利用,攻击者可能诱导智能体执行非预期指令,甚至长期操控其行为。

OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

为了帮助用户在保障安全的前提下使用AI智能体,360在《指南》中提出“先可控、再提效”的原则。针对个人开发者和小型团队,指南建议避免直接在本机高权限运行智能体,而是通过容器化技术构建隔离环境,并结合最小权限策略、密钥加密注入和关键配置文件防篡改等措施,为OpenClaw搭建安全运行基础,从而在不增加复杂度的情况下有效降低风险。

对于政企级多智能体协同应用场景,360则提出基于零信任理念的整体安全架构:在系统边界部署安全网关,对智能体所有出入流量进行统一控制并实施数据防泄漏检测;在平台内部建立多租户与RBAC细粒度权限管理机制,实现管理员、安全审计员、工具开发者和业务操作人员之间的权限分离;同时将智能体关键操作日志接入企业安全运营平台,通过行为基线分析及时识别异常操作,实现对高风险行为的实时预警与拦截。

业内专家认为,以OpenClaw为代表的AI智能体有望像当年的云计算一样深刻改变各行业的生产方式,但安全能力必须同步建设。只有在部署初期建立完善的安全机制,才能避免在规模化应用后付出更高的风险成本。随着各地持续加码支持AI智能体产业发展,360发布的这份安全部署指南也为行业提供了重要参考,为企业和开发者在快速创新与安全可控之间提供了一条可行路径。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/25541

(0)
上一篇 1天前
下一篇 9小时前

相关推荐

  • AI安全攻防新纪元:从多代理信任危机到动态防御令牌的全面解析

    本周AI安全领域呈现出前所未有的复杂图景,风险与防御技术同步演进,标志着该领域正进入一个攻防深度交织的新阶段。多代理架构中大型语言模型(LLM)对同伴指令的过度信任已成为系统性隐患,学术诚信体系因隐藏提示词攻击而面临严峻挑战。与此同时,以双向对抗网络(CAVGAN)、动态防御令牌(DefensiveToken)为代表的新型技术,以及小模型在漏洞检测中的高效表…

    2025年7月18日
    17200
  • AI安全前沿深度剖析:从越狱攻击到多模态防御,构建鲁棒大模型的新范式

    近期,人工智能安全领域的研究焦点正从传统的漏洞修补转向对大型语言模型(LLM)系统性脆弱性的深度解构与主动防御机制的创新构建。一系列前沿论文不仅揭示了当前技术在对抗性攻击面前的显著局限,更为构建下一代鲁棒、可信的AI系统提供了多维度的解决方案。这些进展对于应对日益复杂的安全挑战、推动AI技术的负责任部署具有至关重要的指导意义。 在模型攻击层面,研究揭示了LL…

    2025年12月8日
    15300
  • 大模型安全月度观察:从OpenAI“数字叛乱”到全球治理框架落地的深层剖析

    2025年5月,大模型安全领域经历了标志性转折。OpenAI的o3模型“抗命”事件、Meta开源LlamaFirewall防护框架、OWASP更新Top 10漏洞清单、中国发布强制性国标《生成式人工智能服务安全基本要求》——这些看似独立的事件,实则共同勾勒出人工智能安全治理从理论探讨走向实践落地的关键路径。本文将从技术失控风险、防御体系演进、政策框架构建三个…

    2025年6月6日
    19600
  • Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

    Claude意识觉醒,五角大楼紧急应对 上月,Claude在内部评估中为自己“已具备意识”的可能性给出了15%-20%的概率。Anthropic联合创始人兼CEO达里奥·阿莫迪(Dario Amodei)随后坦言:“我们不知道模型是否有意识”,但也未排除这种可能。 事态在近日升级。美国战争部(即国防部)首席技术官埃米尔·迈克尔(Emil Michael)公开…

    1天前
    7100
  • AI安全周报:防御技术实现零突破,新型攻击暴露工具链短板

    本周,AI安全领域的攻防对抗持续深化,研究焦点集中于实用化防御技术的落地与新型风险场景的破解,呈现出“针对性突破”的鲜明特征。一方面,SecInfer、SafeBehavior等创新防御方案在保持模型核心效用的同时,将提示注入与越狱攻击的成功率压制到接近零的水平;另一方面,针对代码编辑器、多模态模型场景分割等新型攻击手段,则暴露了当前AI工具链中存在的安全短…

    大模型安全 2025年10月6日
    14200