AI在线 AI在线

Google AI漏洞猎手Big Sleep首战告捷:发现20个开源软件安全漏洞,自动化安全检测迎来新突破

Google基于大语言模型的漏洞发现工具Big Sleep首次公开其成果,成功发现并报告了20个开源软件安全漏洞。 这一突破性进展标志着AI驱动的自动化安全检测技术正式进入实用阶段,为网络安全领域带来了新的变革可能。 Big Sleep项目:DeepMind与Project Zero的强强联合Big Sleep由Google旗下AI部门DeepMind与精英黑客团队Project Zero共同开发,这一组合堪称技术与实战经验的完美结合。

Google基于大语言模型的漏洞发现工具Big Sleep首次公开其成果,成功发现并报告了20个开源软件安全漏洞。这一突破性进展标志着AI驱动的自动化安全检测技术正式进入实用阶段,为网络安全领域带来了新的变革可能。

Big Sleep项目:DeepMind与Project Zero的强强联合

Big Sleep由Google旗下AI部门DeepMind与精英黑客团队Project Zero共同开发,这一组合堪称技术与实战经验的完美结合。DeepMind在人工智能领域的深厚技术积累,配合Project Zero在漏洞发现方面的丰富经验,为Big Sleep提供了强大的技术基础和实践指导。

开发者 程序员 黑客 代码 漏洞

Google安全副总裁Heather Adkins在周一宣布了这一重要成果。据悉,Big Sleep发现的漏洞主要集中在流行的开源软件中,包括音视频处理库FFmpeg和图像编辑套件ImageMagick等广泛使用的工具。这些软件在全球范围内拥有庞大的用户基础,其安全性直接关系到无数应用和系统的稳定运行。

由于相关漏洞尚未修复,Google暂未公布具体的影响范围和严重程度。这符合业界标准做法——在漏洞修复之前不公开详细信息,以防止恶意利用。不过,Big Sleep能够发现这些漏洞本身就是一个重要的技术成就。

自动化发现与人工验证的平衡机制

Big Sleep的工作流程体现了AI自动化与人工专业判断的巧妙结合。Google发言人Kimberly Samra向TechCrunch表示:"为了确保高质量和可操作的报告,我们在报告前设置了人工专家审核环节,但每个漏洞都是由AI代理在没有人工干预的情况下发现和复现的。"

这种设计理念既充分发挥了AI在大规模代码分析方面的优势,又避免了完全自动化可能带来的误报问题。AI负责在海量代码中识别潜在的安全问题,人工专家则负责验证和评估,确保报告的准确性和实用性。

Google工程副总裁Royal Hansen在社交平台X上表示,这些发现展示了"自动化漏洞发现的新前沿"。这一评价准确概括了Big Sleep项目的重要意义——它不仅是技术创新的体现,更代表了网络安全防护手段的重要进步。

AI漏洞猎手:新兴领域的竞争格局

Big Sleep并非这一领域的唯一参与者。目前市场上已经出现了多个基于大语言模型的漏洞发现工具,包括RunSybil、XBOW等。这些工具的出现表明,AI驱动的安全检测技术正在快速成熟并走向实用化。

其中,XBOW因在美国知名漏洞悬赏平台HackerOne的排行榜上名列前茅而备受关注。不过,大多数此类工具在实际应用中都采用了类似Big Sleep的混合模式——AI负责发现,人工负责验证。这种设计既保证了效率,又确保了质量。

RunSybil联合创始人兼首席技术官Vlad Ionescu对Big Sleep给予了积极评价,认为这是一个"合法"的项目。他指出,Big Sleep具有"良好的设计,背后的团队知道自己在做什么,Project Zero拥有漏洞发现经验,DeepMind拥有投入其中的技术实力和资源"。

技术前景与现实挑战并存

尽管AI漏洞猎手展现出巨大潜力,但也面临着不少挑战。一些软件项目的维护者抱怨收到了大量实际上是AI幻觉产生的虚假漏洞报告,有人将这些报告称为漏洞悬赏领域的"AI垃圾"。

Ionescu此前向TechCrunch表示:"人们遇到的问题是,我们收到了很多看起来很有价值的东西,但实际上只是垃圾。"这一问题凸显了在AI技术快速发展的同时,如何保证输出质量的重要性。

这种现象也解释了为什么包括Big Sleep在内的成熟AI漏洞猎手都采用了人工验证环节。通过专业人员的把关,可以有效过滤掉AI生成的虚假报告,确保向软件维护者提供真正有价值的安全信息。

行业影响:安全检测进入智能化时代

Big Sleep的成功应用标志着网络安全领域正在进入一个新的发展阶段。传统的人工代码审计和漏洞发现方式虽然准确性高,但效率相对较低,难以应对日益复杂的软件生态和不断增长的代码量。

AI驱动的自动化漏洞发现工具能够在短时间内分析大量代码,识别潜在的安全风险。这种能力对于提升整体网络安全水平具有重要意义,特别是在开源软件广泛使用的今天。

随着这类工具的不断成熟和普及,预计将有更多的安全漏洞被及时发现和修复,从而提升整个软件生态系统的安全性。同时,这也将推动安全行业向更加智能化、自动化的方向发展,为网络安全防护提供更强大的技术支撑。

相关资讯

谷歌内部项目:大模型AI智能体发现了代码漏洞

开源数据库引擎 SQLite 有 bug,还是智能体检测出来的! 通常,软件开发团队会在软件发布之前发现软件中的漏洞,让攻击者没有破坏的余地。 模糊测试 (Fuzzing)是一种常见的软件测试方法,其核心思想是将自动或半自动生成的随机数据输入到一个程序中,并监视程序异常。
11/2/2024 2:56:00 PM
机器之心

谷歌推出安全分析 AI 工具 Big Sleep,实战告捷抓出 SQLite 堆栈缓冲区下溢漏洞

谷歌于 10 月 31 日公布了一项基于 AI 的漏洞分析工具 Big Sleep,该工具号称能够模仿人类安全专家“系统性地发现和分析安全漏洞”。 谷歌声称,研究人员已利用该工具发现了 SQLite 的一项堆栈缓冲区下溢漏洞,而这一漏洞实际上用现有的分析工具均无法发现,因此谷歌认为这一工具有较高的实用性。 ▲ 图源谷歌(下同)据介绍,谷歌 Big Sleep 分析工具源于谷歌 Project Zero 团队今年 6 月发布的 Naptime 项目,该项目旨在评估大语言模型(LLM)在安全漏洞研究中的潜力。
11/4/2024 5:27:28 PM
漾仔

​研究显示 AI 影响医生癌症筛查能力,技能下降令人担忧

在医学界,人工智能(AI)被广泛认为有助于提高医疗服务的效率和准确性。 然而,最新研究表明,AI 的使用可能导致一些医生在短时间内技能下降。 研究指出,AI 在帮助医生发现结肠中的癌前病变方面发挥了重要作用,但当这种技术的辅助作用被移除后,医生的肿瘤发现能力下降了约20%。
8/13/2025 10:32:22 AM
AI在线
  • 1