大模型安全

  • RAG投毒攻击:企业知识库的隐形安全威胁与深度防御策略

    在人工智能技术快速发展的浪潮中,检索增强生成(RAG)架构已成为企业构建智能应用的核心技术之一。通过将大语言模型与外部知识库相结合,RAG系统能够提供更准确、更专业的响应,广泛应用于智能客服、知识助手、内容生成等场景。然而,随着RAG技术的普及,一种新型的安全威胁——RAG投毒攻击(RAG Poisoning)正悄然浮现,对企业数据安全构成严峻挑战。 RAG…

    2025年3月26日
    10000
  • 开源Agentic Radar:AI安全透明化革命,重塑智能体系统防护新范式

    2025年3月,AI安全服务商SplxAI正式开源其核心产品Agentic Radar。这款聚焦智能体工作流透明化的工具,正以独特的架构可视化能力解决AI安全领域的“黑箱困境”,或将重塑企业级AI系统的安全防护标准。 一、深度解析Agentic Radar技术架构 Agentic Radar是用于智能体系统的开源扫描仪工具,可帮助安全团队和AI工程师了解AI…

    2025年3月16日
    11900
  • DeepSeek爆火背后的安全隐忧:从模型下载到部署运营的全链路风险剖析

    近几个月,国产开源大模型DeepSeek凭借“小参数、高性能”的显著优势迅速席卷市场,引发了企业私有化部署需求的激增。然而,在这股AI应用热潮的背后,却暗藏着不容忽视的安全风险。最新数据显示,高达88.9%的企业在部署AI服务器时未采取任何基础安全措施,而像Ollama这类默认未启用安全认证的流行框架,更使得企业服务器如同“大门敞开”,暴露于多重威胁之下。本…

    2025年3月10日
    9800
  • AI安全双轨制:Google SAIF与OWASP LLM Top 10的框架对比与协同路径

    随着人工智能技术的快速演进,安全风险已成为制约其规模化应用的关键瓶颈。2023年6月,Google推出安全AI框架(SAIF),旨在为组织提供应对AI风险的全面指南。2024年10月,SAIF迎来重大升级,新增免费的AI风险评估工具,进一步强化其在复杂AI环境中的指导作用。与此同时,OWASP基金会发布的LLM Top 10框架,则聚焦于大型语言模型(LLM…

    2025年3月5日
    9500