AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

Linux 内核维护者遭遇“AI 监工”:每日漏洞报告轰炸,开发者坦言“不堪重负”

Linux 内核维护者们正面临一场突如其来的生产力挑战:AI 发现漏洞的速度,已经超过了他们修复漏洞的速度。

刚刚加班处理完一批问题,一觉醒来,邮箱又被新的 AI 漏洞报告塞满。据反映,从今年开始,维护者们每天都会雷打不动地收到 5 到 10 份此类报告,周二和周五尤其密集。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

最令人无奈的是,这些由 AI 生成的报告大部分都是正确的,让维护者连“忽略无效报告”的借口都没有。提交报告的仿佛是一个永不疲倦的“赛博监工”,导致工作积压如山,根本处理不完。

有维护者感叹,AI 俨然成了驱策开发者的“赛博马鞭”。尽管感到“吓人且疲惫”,但漏洞已然摆在眼前,为了系统安全,也只能硬着头皮连夜修复。他们无奈表示,短期内尚无应对良策,同行们可能需要做好长期应对的心理准备。

我们可能将迎来一段持续数年的大混乱时代。

一夜之间,AI 化身“白帽黑客”

这并非个别维护者的困扰。Linux 内核负责人 Greg Kroah-Hartman 回忆,起初团队对几个月前出现的少量低质量 AI 安全报告并未重视,以为只是又一批“AI 垃圾”。

然而形势急转直下。几乎是一夜之间,AI 仿佛进化成了顶尖的“白帽黑客”,开始向各大开源项目的安全邮箱发起高频、高准确率的漏洞报告轰炸。打开邮件,发现报告言之有物;再开一封,竟然又是对的……维护者们就此陷入了仿佛永无止境的打补丁循环。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

这一转变来得过于突然。Greg 坦言:“我们不知道发生了什么,没人知道。”他在与各大开源项目安全团队的交流中确认,所有团队目前都在经历同样的状况。至今无人能确切指出,究竟是某款新的 AI 工具横空出世,还是人们突然集体发现了用 AI 挖漏洞的乐趣。

无论如何,一个确定的事实是:海啸已经来临

报告激增与“幸福的烦恼”

一位网名为 wtarreau 的 Linux 内核维护者在技术论坛上分享了自己的“崩溃”数据:两年前,每周大约只有 2 到 3 份漏洞报告;过去一年,增长到每周约 10 份;而从今年开始,每天都是 5 到 10 份

数量激增背后,更让他感到新奇的现象是:开始频繁出现不同提交者报告同一个漏洞的情况。在 Linux 这样庞大的代码库中,人工分析思路各异,重复发现同一漏洞的概率极低。这强烈暗示,现在有大量非安全领域的人士,正在利用 AI 工具进行漏洞挖掘,并踊跃提交。

这导致 wtarreau 的工作量暴增,不得不扩充团队来应对。但他将其视为一种“幸福的烦恼”,并提出了一个乐观的猜想:

好消息是,我怀疑现在 bug 报告的速度,已经比开发者编写 bug 的速度快了。所以我们实际上可能正在清理积压已久的 bug。

他甚至联想到互联网普及前的“黄金时代”,那时软件分发后难以更新,因此对质量要求极为严苛。如今,AI 或许正在倒逼整个软件行业,重新拾起那种对质量的极致追求,“发布即撒手”的模式将难以为继。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

不过,并非所有人都认同这是“幸福”。有网友认为维护者无需对 AI 报告亦步亦趋,应集中精力修复最严重的系统级漏洞,盲目修改可能引发兼容性问题。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

对此,另一网友反驳道,这种想法是危险的托辞:“每个人都觉得‘我的使用场景永远不会遇到这些 bug’,但总会有倒霉蛋遇到某个特定的 bug,然后被逼疯。”

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

打不过就加入:AI 的双刃剑效应

一个更现实的担忧是:维护者修复漏洞的速度,真能跑赢恶意分子利用 AI 发现漏洞的速度吗?这会不会演变成一场安全噩梦?

面对挑战,开源社区的态度是务实的:打不过,就加入。目前,AI 在 Linux 内核开发中更多扮演辅助角色,但这条界限正日益模糊。

Greg Kroah-Hartman 透露,他自己已开始进行实验。一次,他输入了一个“很傻的提示词”,AI 竟生成了 60 个补丁,其中三分之二是正确的。虽然这些补丁仍需人工审查、完善提交说明才能集成,但绝不能称之为“垃圾”。

“这些工具是有用的,” Greg 坦言,“我们不能视而不见。它们真的来了,而且越来越强。”事实上,社区已经看到一些由 AI 生成并最终被采纳的补丁。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

引入 AI 辅助的显著好处在于提升响应速度。Greg 指出,现在有自动化机器人协助检查补丁。若检查未通过,开发者能迅速得到反馈并提交修正版本。这将整个修复流程的节奏,拉到了与 AI 发现漏洞相近的频率。

对于 Linux 内核而言,如何与 AI 共处已成为必须思考的课题。这既是挑战——带来了新的漏洞源和审查负担;也是机遇——提供了缓解压力的工具。当前维护者们的处境,正是这场 AI 革命在软件开发领域的一个缩影。AI 在飞速发展,而我们,也不得不加速适应它。

系好安全带吧。

参考链接:
[1]https://lwn.net/Articles/1065620/
[2]https://news.ycombinator.com/item?id=47611921
[3]https://www.theregister.com/2026/03/26/greg_kroahhartman_ai_kernel/

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/28696

(0)
上一篇 4小时前
下一篇 4小时前

相关推荐

  • OpenAI、Anthropic、DeepMind罕见联手,得出一个关于AI安全的惊人结论:现有LLM安全防御不堪一击

    本文实测 12 种防御方法,几乎全军覆没。 真是罕见,OpenAI、Anthropic、Google DeepMind 这三大竞争对手,居然联手发表了一篇论文,共同研究语言模型的安全防御评估。 看来在 LLM 安全这事上,大家还是能暂时放下对抗,握手合作的。 本文主要围绕一个问题展开:我们该如何评估语言模型防御机制的鲁棒性? 要知道,目前针对越狱和提示注入的…

    2025年10月14日
    34401
  • 12毫秒破解自动驾驶安全:北航DynamicPAE框架实现动态物理对抗攻击实时生成

    近日,部分L3级自动驾驶车型已获准上路,标志着我国自动驾驶产业进入新阶段。 然而,当自动驾驶汽车在高速行驶时,若前方出现一个外观看似正常、实则为恶意生成的纹理障碍物,车辆的感知系统可能无法准确识别,导致错判或漏判,从而引发严重事故。 这类能够诱导智能系统、并可在现实世界中复现的纹理,被称为物理对抗样本(PAE, Physical Adversarial Ex…

    2025年12月28日
    25800
  • CyberGym:从实验室游戏到实战检验——AI安全评估的范式革命

    在人工智能技术加速渗透软件安全领域的当下,一个根本性挑战日益凸显:如何科学评估AI智能体在真实复杂网络环境中的安全防御能力?传统评估框架往往陷入“纸上谈兵”的困境,难以反映工业级代码库中漏洞的隐蔽性与复杂性。近日,加州大学伯克利分校研究团队发布的CyberGym框架,基于188个开源项目的1507个真实漏洞构建了首个大规模实战化评估平台,标志着AI安全评估从…

    2025年6月20日
    22300
  • 大模型API惊现‘狸猫换太子’:你花高价买的GPT-5,可能只是廉价小模型

    近段时间,不少用户抱怨大模型API的表现如同“薛定谔的猫”:时而聪明绝顶,时而愚钝不堪。这不禁让人怀疑,后台是否存在偷偷“降智”的操作。 如今,一篇来自CISPA亥姆霍兹信息安全中心的最新论文《Real Money, Fake Models: Deceptive Model Claims in Shadow APIs》揭开了部分谜底:你花费真金白银购买的“第…

    2026年3月7日
    18100
  • AI安全攻防新纪元:从多代理信任危机到动态防御令牌的全面解析

    本周AI安全领域呈现出前所未有的复杂图景,风险与防御技术同步演进,标志着该领域正进入一个攻防深度交织的新阶段。多代理架构中大型语言模型(LLM)对同伴指令的过度信任已成为系统性隐患,学术诚信体系因隐藏提示词攻击而面临严峻挑战。与此同时,以双向对抗网络(CAVGAN)、动态防御令牌(DefensiveToken)为代表的新型技术,以及小模型在漏洞检测中的高效表…

    2025年7月18日
    21900