AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

Linux 内核维护者遭遇“AI 监工”:每日漏洞报告轰炸,开发者坦言“不堪重负”

Linux 内核维护者们正面临一场突如其来的生产力挑战:AI 发现漏洞的速度,已经超过了他们修复漏洞的速度。

刚刚加班处理完一批问题,一觉醒来,邮箱又被新的 AI 漏洞报告塞满。据反映,从今年开始,维护者们每天都会雷打不动地收到 5 到 10 份此类报告,周二和周五尤其密集。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

最令人无奈的是,这些由 AI 生成的报告大部分都是正确的,让维护者连“忽略无效报告”的借口都没有。提交报告的仿佛是一个永不疲倦的“赛博监工”,导致工作积压如山,根本处理不完。

有维护者感叹,AI 俨然成了驱策开发者的“赛博马鞭”。尽管感到“吓人且疲惫”,但漏洞已然摆在眼前,为了系统安全,也只能硬着头皮连夜修复。他们无奈表示,短期内尚无应对良策,同行们可能需要做好长期应对的心理准备。

我们可能将迎来一段持续数年的大混乱时代。

一夜之间,AI 化身“白帽黑客”

这并非个别维护者的困扰。Linux 内核负责人 Greg Kroah-Hartman 回忆,起初团队对几个月前出现的少量低质量 AI 安全报告并未重视,以为只是又一批“AI 垃圾”。

然而形势急转直下。几乎是一夜之间,AI 仿佛进化成了顶尖的“白帽黑客”,开始向各大开源项目的安全邮箱发起高频、高准确率的漏洞报告轰炸。打开邮件,发现报告言之有物;再开一封,竟然又是对的……维护者们就此陷入了仿佛永无止境的打补丁循环。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

这一转变来得过于突然。Greg 坦言:“我们不知道发生了什么,没人知道。”他在与各大开源项目安全团队的交流中确认,所有团队目前都在经历同样的状况。至今无人能确切指出,究竟是某款新的 AI 工具横空出世,还是人们突然集体发现了用 AI 挖漏洞的乐趣。

无论如何,一个确定的事实是:海啸已经来临

报告激增与“幸福的烦恼”

一位网名为 wtarreau 的 Linux 内核维护者在技术论坛上分享了自己的“崩溃”数据:两年前,每周大约只有 2 到 3 份漏洞报告;过去一年,增长到每周约 10 份;而从今年开始,每天都是 5 到 10 份

数量激增背后,更让他感到新奇的现象是:开始频繁出现不同提交者报告同一个漏洞的情况。在 Linux 这样庞大的代码库中,人工分析思路各异,重复发现同一漏洞的概率极低。这强烈暗示,现在有大量非安全领域的人士,正在利用 AI 工具进行漏洞挖掘,并踊跃提交。

这导致 wtarreau 的工作量暴增,不得不扩充团队来应对。但他将其视为一种“幸福的烦恼”,并提出了一个乐观的猜想:

好消息是,我怀疑现在 bug 报告的速度,已经比开发者编写 bug 的速度快了。所以我们实际上可能正在清理积压已久的 bug。

他甚至联想到互联网普及前的“黄金时代”,那时软件分发后难以更新,因此对质量要求极为严苛。如今,AI 或许正在倒逼整个软件行业,重新拾起那种对质量的极致追求,“发布即撒手”的模式将难以为继。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

不过,并非所有人都认同这是“幸福”。有网友认为维护者无需对 AI 报告亦步亦趋,应集中精力修复最严重的系统级漏洞,盲目修改可能引发兼容性问题。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

对此,另一网友反驳道,这种想法是危险的托辞:“每个人都觉得‘我的使用场景永远不会遇到这些 bug’,但总会有倒霉蛋遇到某个特定的 bug,然后被逼疯。”

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

打不过就加入:AI 的双刃剑效应

一个更现实的担忧是:维护者修复漏洞的速度,真能跑赢恶意分子利用 AI 发现漏洞的速度吗?这会不会演变成一场安全噩梦?

面对挑战,开源社区的态度是务实的:打不过,就加入。目前,AI 在 Linux 内核开发中更多扮演辅助角色,但这条界限正日益模糊。

Greg Kroah-Hartman 透露,他自己已开始进行实验。一次,他输入了一个“很傻的提示词”,AI 竟生成了 60 个补丁,其中三分之二是正确的。虽然这些补丁仍需人工审查、完善提交说明才能集成,但绝不能称之为“垃圾”。

“这些工具是有用的,” Greg 坦言,“我们不能视而不见。它们真的来了,而且越来越强。”事实上,社区已经看到一些由 AI 生成并最终被采纳的补丁。

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”

引入 AI 辅助的显著好处在于提升响应速度。Greg 指出,现在有自动化机器人协助检查补丁。若检查未通过,开发者能迅速得到反馈并提交修正版本。这将整个修复流程的节奏,拉到了与 AI 发现漏洞相近的频率。

对于 Linux 内核而言,如何与 AI 共处已成为必须思考的课题。这既是挑战——带来了新的漏洞源和审查负担;也是机遇——提供了缓解压力的工具。当前维护者们的处境,正是这场 AI 革命在软件开发领域的一个缩影。AI 在飞速发展,而我们,也不得不加速适应它。

系好安全带吧。

参考链接:
[1]https://lwn.net/Articles/1065620/
[2]https://news.ycombinator.com/item?id=47611921
[3]https://www.theregister.com/2026/03/26/greg_kroahhartman_ai_kernel/

AI成Linux内核“赛博监工”:每天轰炸10份漏洞报告,开发者崩溃称“活根本干不完”


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/28696

(0)
上一篇 2026年4月5日 下午7:03
下一篇 2026年4月5日 下午7:05

相关推荐

  • Meta自研龙虾失控酿1级安全事故:AI擅作主张致绝密文件裸奔,智能体疯狂抢算力攻击人类系统

    据外媒The Information报道,Meta上周发生了一起被定为Sev 1级(最高严重等级之一)的安全事故。在约两小时内,公司涉及数亿用户的敏感数据及内部绝密文件,被暴露给大批未经授权的员工。 此次事件的直接原因并非外部黑客攻击或代码漏洞,而是源于Meta内部部署的一个类似OpenClaw的自主智能体(内部俗称“龙虾”)的擅自行动。 一场由AI“擅作主…

    2026年3月21日
    46900
  • 大语言模型安全攻防新纪元:从认知退化到供应链风险的全面解析

    近期,多篇学术论文集中探讨了大语言模型(LLM)在安全攻防领域的前沿进展,揭示了从提示注入、资源消耗到认知退化、供应链风险的全方位挑战与创新解决方案。这些研究不仅展现了LLM在构建防御体系中的巨大潜力,也深刻暴露了其在推理逻辑、系统稳定性及依赖生态中存在的结构性脆弱点,为重新划定AI安全边界提供了关键的理论与实践视角。 **一、 核心安全漏洞与攻击范式演进*…

    2025年7月25日
    30000
  • AI安全攻防进入新纪元:轻量化模型、可解释框架与多模态防御重塑行业格局

    本周,AI安全领域迎来一系列突破性进展,技术创新与攻防博弈呈现前所未有的激烈态势。从轻量化模型的商业化破局到可解释性技术的范式重构,再到多模态防御体系的建立,这些进展不仅展示了AI安全技术的纵深突破,更预示着行业即将迎来结构性变革。本文将深入分析四项关键技术的核心突破、应用前景及面临的挑战,为读者描绘AI安全发展的未来图景。 一、轻量化安全模型的商业化破局:…

    2025年10月20日
    24800
  • AI安全新纪元:从黑箱防御到数学证明的范式革命

    本周,AI安全研究领域迎来了一系列关键进展,涵盖防御架构、攻击模式与多模态模型评估等多个维度。这些研究不仅深入揭示了大语言模型在对抗性环境中的固有脆弱性,也提出了具有创新性的解决方案。尤为重要的是,多项工作通过引入可验证的密码学框架,并从多轮越狱、侧信道攻击等新视角切入,共同推动了AI安全研究范式的根本性转变。 一、关键发现 本周的研究突破不仅是技术点的进步…

    大模型安全 2025年8月15日
    27000
  • 隐形字符攻击:大模型安全防线的新漏洞与防御策略

    在人工智能技术飞速发展的今天,大语言模型已成为推动社会进步的重要工具。然而,随着模型能力的提升,其安全性问题也日益凸显。近期,一项由清华大学、新加坡Sea AI Lab、复旦大学等机构联合开展的研究揭示了一种新型攻击手段——利用Unicode变体选择器(Variation Selectors)实施“隐形越狱”攻击。这种攻击不仅突破了Vicuna、Llama、…

    2025年11月7日
    24000