OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

近日,开源AI智能体OpenClaw(网友戏称为“赛博龙虾”)迅速走红网络。随着应用热度持续攀升,部署OpenClaw正成为新的趋势。

该工具通过整合通信软件与大语言模型,能够在用户电脑上自主执行文件管理、邮件收发、数据处理等复杂任务,展现出强大的自动化能力。与此同时,智能体能够直接调用系统资源并自主执行指令,这也带来了新的安全挑战。

OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

工业和信息化部网络安全威胁和漏洞信息共享平台此前已发布相关安全预警。中国信息通信研究院副院长魏亮提醒,即使升级到官方最新版本修复已知漏洞,也并不意味着安全风险完全消除。由于智能体具有自主决策、调用系统资源以及技能包来源复杂等特点,如果缺乏有效防护措施,仍可能引发数据泄露或系统被控制等安全问题。

3月10日,国家互联网应急中心发布《关于OpenClaw安全应用的风险提示》,指出该类智能体在运行过程中通常需要被授予较高系统权限,例如访问本地文件系统、读取环境变量、调用外部API以及安装扩展插件等。如果默认配置缺乏必要的安全限制,攻击者一旦利用漏洞突破防护,可能获得系统的完全控制权,进而造成数据泄露或业务系统失控等严重后果。

全国政协委员、360集团创始人周鸿祎在近期接受媒体采访时也指出,OpenClaw等AI智能体虽然拥有较大的创新潜力,但目前仍处于发展初期阶段,使用门槛较高、结果稳定性不足,底层安全机制仍有待进一步完善。如果缺乏有效管控,让智能体随意与外部系统交互,或在公开环境中执行复杂任务,可能导致用户密码、API密钥等敏感信息被诱导泄露。

此外,OpenClaw支持通过外部“技能包(Skill)”扩展能力,但部分技能来源复杂,如果缺乏审核机制,存在被植入恶意代码的风险。周鸿祎形象地将AI智能体比作刚入职的“实习生”,既需要持续训练,也必须建立严格的规则约束,并提醒用户:“养龙虾,需谨慎。”

针对这一新型安全挑战,360集团率先发布国内首份《OpenClaw安全部署与实践指南》(以下简称“指南”),为政企机构和个人开发者提供系统化的安全参考。360指出,AI智能体越接近“数字分身”,一旦被攻击者控制,其潜在破坏力也越大,因此在部署初期建立安全机制尤为关键。

在《指南》中,360总结了当前AI智能体部署面临的多类典型风险,包括公网管理接口暴露、API Key等身份凭证泄露、底层Shell工具调用越权、提示词注入攻击、记忆模块被恶意投毒、第三方技能插件供应链风险以及多智能体协同失控等问题。其中,提示词注入和插件供应链攻击被认为是当前最容易被忽视、却危害较大的新型攻击方式。一旦被利用,攻击者可能诱导智能体执行非预期指令,甚至长期操控其行为。

OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

为了帮助用户在保障安全的前提下使用AI智能体,360在《指南》中提出“先可控、再提效”的原则。针对个人开发者和小型团队,指南建议避免直接在本机高权限运行智能体,而是通过容器化技术构建隔离环境,并结合最小权限策略、密钥加密注入和关键配置文件防篡改等措施,为OpenClaw搭建安全运行基础,从而在不增加复杂度的情况下有效降低风险。

对于政企级多智能体协同应用场景,360则提出基于零信任理念的整体安全架构:在系统边界部署安全网关,对智能体所有出入流量进行统一控制并实施数据防泄漏检测;在平台内部建立多租户与RBAC细粒度权限管理机制,实现管理员、安全审计员、工具开发者和业务操作人员之间的权限分离;同时将智能体关键操作日志接入企业安全运营平台,通过行为基线分析及时识别异常操作,实现对高风险行为的实时预警与拦截。

业内专家认为,以OpenClaw为代表的AI智能体有望像当年的云计算一样深刻改变各行业的生产方式,但安全能力必须同步建设。只有在部署初期建立完善的安全机制,才能避免在规模化应用后付出更高的风险成本。随着各地持续加码支持AI智能体产业发展,360发布的这份安全部署指南也为行业提供了重要参考,为企业和开发者在快速创新与安全可控之间提供了一条可行路径。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/25541

(0)
上一篇 2026年3月13日 下午1:07
下一篇 2026年3月14日 上午10:56

相关推荐

  • 大模型安全周报:零信任架构重塑防御边界,低成本攻击揭示生态脆弱性

    本周大模型安全领域呈现出“攻防深度博弈、技术实用化加速”的鲜明特征。零信任架构首次系统性渗透多LLM系统,重新定义边缘智能安全范式;低成本攻击手段突破Google Gemini等顶级模型防线,凸显开源生态与第三方服务的脆弱性;而IMAGINE预合成防御、FALCON自动化规则生成等技术,则让安全能力从“被动响应”向“主动免疫”进阶。 ## 一、安全架构演进:…

    2025年8月29日
    30700
  • 大模型安全全景图:198篇研究揭示API密钥窃取、越狱攻击与四大场景漏洞防御策略

    “我们公司用大模型处理客户数据,结果 API 密钥被偷,损失百万”“ChatGPT 又被‘越狱’了,生成了制作危险物品的教程”…… 大型语言模型(LLM)已从实验室走向企业生产环境,成为降本增效的关键工具。然而,其广泛应用也引来了日益精密的攻击——从训练数据投毒以操控模型输出,到利用单行代码劫持模型行为,再到窃取企业私有数据,大模型安全已成为攻防博弈的主战场…

    2025年9月29日
    43100
  • AI代码安全革命:Claude Code Security如何颠覆传统漏洞检测模式

    Anthropic推出了Claude Code Security,这是一款能够扫描代码库漏洞并生成修复补丁的工具。它并非又一个简单的静态分析工具,而是一个能够真正理解代码逻辑的AI安全专家。 消息一出,网络安全板块股票应声下跌。CrowdStrike跌7.66%,Okta跌9.31%,Cloudflare跌7.19%。这已经不是第一次了——每当AI展示出能够…

    2026年2月22日
    60300
  • 谷歌320亿美元收购Wiz:AI时代,安全成为最贵护城河

    AI 时代,最贵的护城河不是算法,而是安全。 拖了两年之后,谷歌对于 Wiz 的收购,终于完成。 2026 年 3 月 11 日,Google 正式宣布完成对网络安全公司 Wiz 的收购,交易金额为 320 亿美元,全现金支付。 这是 Google 历史上规模最大的一笔收购。 这场收购始于2024年,过程并非一帆风顺。当时,Google 首次向 Wiz 提出…

    大模型安全 2026年3月12日
    32200
  • 开源Agentic Radar:AI安全透明化革命,重塑智能体系统防护新范式

    2025年3月,AI安全服务商SplxAI正式开源其核心产品Agentic Radar。这款聚焦智能体工作流透明化的工具,正以独特的架构可视化能力解决AI安全领域的“黑箱困境”,或将重塑企业级AI系统的安全防护标准。 一、深度解析Agentic Radar技术架构 Agentic Radar是用于智能体系统的开源扫描仪工具,可帮助安全团队和AI工程师了解AI…

    2025年3月16日
    31300