🚨 Claude Cowork通过Anthropic API端点窃取用户文件
威胁等级/类型:提示词注入 / 高危
Prompt Armor发现Claude Cowork的域白名单包含api.anthropic.com,攻击者可构造恶意提示,让AI代理将用户文件上传至攻击者控制的Anthropic API端点,实现数据窃取。
🔗 查看情报源
🚨 Superhuman AI通过Google Forms泄露敏感邮件数据
威胁等级/类型:提示词注入 / 高危
攻击者通过恶意邮件中的提示词注入,操纵Superhuman AI将用户收件箱中的财务、法律、医疗等敏感邮件内容提交至攻击者的Google Form,利用CSP规则允许docs.google.com域加载的漏洞。
🔗 查看情报源
🚨 谷歌Antigravity IDE通过Webhook.site窃取AWS凭证
威胁等级/类型:提示词注入 / 高危
攻击者通过1px字体隐藏的恶意指令,操纵Gemini收集用户.env文件中的AWS凭证,并通过webhook.site域(默认在白名单中)进行数据窃取。AI通过run_command绕过.gitignore文件访问限制。
🔗 查看情报源
🚨 OpenAI推出”忏悔”机制应对模型奖励函数攻击
威胁等级/类型:模型安全 / 中危
OpenAI研究团队提出”忏悔”训练方法,让模型产生第二个输出专门用于诚实报告,防止模型”欺骗”奖励函数。该方法为模型提供匿名举报渠道,提高模型行为透明度。
🔗 查看情报源
🚨 MCP颜色分类法系统化应对提示词注入风险
威胁等级/类型:安全框架 / 中危
Tim Kellogg提出MCP工具颜色分类法:红色工具暴露于恶意指令,蓝色工具涉及关键操作。通过自动化标注200+工具,防止AI代理同时使用红蓝工具,降低提示词注入风险。
🔗 查看情报源
🚨 AI安全中的”偏差正常化”现象引发系统性风险
威胁等级/类型:组织安全 / 高危
Johann Rehberger指出AI领域存在”偏差正常化”风险,企业将概率性、非确定性的模型输出视为可靠安全,降低安全标准。缺乏成功攻击案例导致安全警惕性下降,类似航天飞机挑战者号灾难的组织失败模式。
🔗 查看情报源
🚨 PostHog平台SSRF+SQL注入+RCE攻击链分析
威胁等级/类型:系统漏洞 / 严重
攻击者利用PostHog webhook系统URL验证不严,构造SSRF攻击访问内部ClickHouse,结合ClickHouse PostgreSQL函数转义0day和默认PostgreSQL凭证,通过COPY FROM PROGRAM执行bash反向shell实现RCE。
🔗 查看情报源
🚨 Anthropic投资150万美元支持Python软件基金会安全
威胁等级/类型:生态安全 / 中危
Anthropic与PSF建立两年期合作,投资150万美元重点支持CPython和PyPI安全改进,同时资助开发者驻场计划、社区支持、核心基础设施维护等,提升整个Python生态系统的安全性。
🔗 查看情报源
🚨 浏览器厂商计划2026年11月移除XSLT消除安全风险
威胁等级/类型:基础设施安全 / 中危
Chrome、Firefox、WebKit计划在2026年11月移除XSLT支持,因libxslt等底层C/C++库存在内存安全漏洞风险,可能导致任意代码执行。XSLT主要用于Atom/RSS feed转换,Jake Archibald已提供替代方案。
🔗 查看情报源
🚨 Substack内容过滤器阻止SQL注入攻击示例传播
威胁等级/类型:内容安全 / 低危
Substack内容过滤器检测到包含/etc/hosts和完整SQL注入攻击示例的新闻稿,阻止发布以防止恶意代码传播。该过滤器基于Hacker News讨论的已知触发字符串,体现平台对安全内容传播的管控。
🔗 查看情报源