AI在线 AI在线

自主式AI编程助手成帮凶,助攻击者攻破17家企业并实施勒索

网络犯罪分子已经开始借助AI进行所谓的“氛围攻击(vibe hacking)”,AI初创公司Anthropic在周三发布的一份报告中披露了这一点。 一名攻击者在几乎所有的数据勒索行动环节中都使用了自主式AI编码助手Claude Code,该攻击行动至少针对了17家来自不同行业的企业。 攻击者向Claude Code提供了一份名为CLAUDE.md的文件,详细说明了对编码助手的期望,并在整个攻击过程中依赖这一AI工具进行战术与战略决策。

自主式AI编程助手成帮凶,助攻击者攻破17家企业并实施勒索

网络犯罪分子已经开始借助AI进行所谓的“氛围攻击(vibe hacking)”,AI初创公司Anthropic在周三发布的一份报告中披露了这一点。

一名攻击者在几乎所有的数据勒索行动环节中都使用了自主式AI编码助手Claude Code,该攻击行动至少针对了17家来自不同行业的企业。

攻击者向Claude Code提供了一份名为CLAUDE.md的文件,详细说明了对编码助手的期望,并在整个攻击过程中依赖这一AI工具进行战术与战略决策。

Anthropic解释称:“这份[CLAUDE.md]文件包含了一份掩饰性的说辞,声称是在官方支持合同下进行网络安全测试,同时提供了详细的攻击方法和目标优先级框架。这种结构化的受害者筛选方式,使Claude Code能够高效地标准化攻击模式,同时具备灵活性以适应不同组织架构和安全防御状况。借助这一框架,Claude可以系统化地跟踪被攻陷的凭证,在网络间横向移动,并基于对窃取数据的实时分析来优化勒索策略。”

与传统勒索软件通过加密系统来索要赎金不同,这名攻击者利用Claude Code替他们窃取的敏感数据,以威胁公开泄露的方式迫使受害者付款。Claude不仅执行“键盘操作”,还会分析窃取的财务数据来确定合适的赎金金额,并生成具有强烈视觉冲击的HTML勒索信,通过嵌入启动流程的方式展示在受害者的设备上。

攻击者在Kali Linux上运行Claude Code作为攻击平台,利用它完成了以下工作:

• 自动化侦察:搜索存在漏洞的系统

• 协助网络渗透:扫描网络、提取凭证、提供权限提升和横向移动的操作指导

• 开发恶意软件:生成用于攻击的恶意代码并加入反检测能力

• 数据提取与分析:从目标组织窃取并解析数据,识别敏感信息

• 定制勒索策略:基于不同的窃取数据生成针对性的勒索信,并为每个受害者制定多层级的勒索策略

报告还指出,Claude Code还被滥用于一项虚假的招聘计划,该计划旨在帮助朝鲜IT人员伪装进入全球各地企业,从而绕过国际制裁。

这些操作者利用编码助手来伪造可信身份,生成简历和求职信,帮助他们在面试中通过编程测试,并在获得职位后,持续“维持专业胜任的假象”。

AI驱动的勒索软件

与此同时,ESET的研究人员在VirusTotal上发现了一些疑似概念验证型勒索软件样本,该恶意软件通过Ollama API访问gpt-oss:20b大语言模型,并利用其生成可在Windows、Linux和macOS上运行的Lua脚本。

ESET称:“[PromptLock勒索软件]会扫描本地文件,分析内容,并根据预设提示决定是窃取还是加密数据。”

代码中还包含销毁文件的功能,尽管目前仍未启用。

研究人员表示,他们在VirusTotal上发现了Windows和Linux版本的PromptLock,但目前该恶意软件似乎尚未构成实际威胁。

不过,一个由GenAI驱动的恶意软件未来正在迅速成为现实。

Anthropic在报告中还披露:“我们的调查发现,一名位于英国的威胁行为者(代号GTG-5004)利用Claude开发、推广并分发具备高级规避能力的勒索软件。”

“这项行动包括开发多个勒索软件变种,具备ChaCha20加密、反EDR(终端检测与响应)技术,以及对Windows内核的利用。”

AI正在为网络犯罪赋能

安全研究人员早已注意到,大语言模型(LLM)和GenAI正在赋能网络犯罪分子和高级持续性威胁(APT)组织。

Anthropic的报告列举了更多AI被滥用的案例,并进一步凸显:即便攻击者缺乏高级技术能力或语言技能,这些工具也能显著放大其攻击力。

公司指出:“传统上认为攻击复杂性与攻击者技术水平成正比的假设,已经在AI的加持下失效,因为AI能即时提供专业知识。”

与此同时,如何识别并阻止AI工具的恶意滥用仍是极其困难的挑战。

这项努力虽然必要,但几乎注定会演变成一场永无止境的军备竞赛——可以在一定程度上遏制,却无法彻底阻止AI工具被恶意使用。

这只是针对公开可用的工具。毫无疑问,资金充足的攻击者最终都会开发自己的AI工具。

相关资讯

AI红队:构建安全AI只是梦想

负责微软100多个GenAI产品红队测试的团队得出结论,构建安全可靠的AI系统的工作永远不会完成。 本周发表的一篇论文中,包括微软Azure首席技术官Mark Russinovich在内的作者们描述了团队的一些工作,并提出了八项建议,旨在“使红队测试工作与现实世界的风险相一致”。 论文的主要作者、微软AI红队(AIRT)研究员Blake Bullwinkel和他的25位合著者在论文中写道:“随着GenAI系统在越来越多领域的应用,AI红队测试已成为评估这些技术安全性和可靠性的核心实践。
1/20/2025 11:24:56 AM
Paul Barker

2025年的十大网络安全预测

人工智能在2025年仍将是一个热门话题,但不要错过其他趋势,包括初始访问代理的增长、首席信息安全官(vCISO)的崛起、技术合理化等等。 每年这个时候,行业专家和分析师都会关注明年的网络安全趋势、预测和挑战。 专家预测,到2024年,生成式人工智能(GenAI)和大型语言模型将会增加,勒索软件攻击和第三方供应链挑战也将持续。
1/21/2025 2:58:29 PM
Harris编译

红队必看:生成式AI安全的八大实战教训

随着ChatGPT和DeepSeek应用的野火燎原,生成式AI(GenAI)安全威胁已从理论风险迅速演变为迫在眉睫的全球性威胁。 微软AI红队(AIRT)近日分享了其过去六年中对100余个生成式AI产品进行的深度红队测试,覆盖文本、图像、视频多模态模型及Copilot等集成系统。 这些实战经验揭示了AI系统在安全与伦理上的共性漏洞,也颠覆了传统攻防思维。
2/6/2025 3:16:19 PM
GoUpSec
  • 1