AI在线 AI在线

指导智能体:为什么你的下一个安全雇员可能是算法

安全团队正淹没在警报中,威胁、可疑活动和误报的数量之大,使得分析师几乎不可能有效地调查所有内容,这时,出现了自主式AI,它能够同时完成数百项任务而不会感到疲倦。 企业越来越多地采用自主式AI来处理重复的安全任务,如警报分类,从而让人类分析师专注于最严重的威胁,但尽管自主式AI可能速度很快,但它并非万无一失,它天生就不了解企业独特的风险环境或安全优先级。 就像任何新员工一样,智能体需要指导才能发挥效用,它必须被调整、监控和完善,以与企业的安全政策和运营工作流程保持一致。

指导智能体:为什么你的下一个安全雇员可能是算法

安全团队正淹没在警报中,威胁、可疑活动和误报的数量之大,使得分析师几乎不可能有效地调查所有内容,这时,出现了自主式AI,它能够同时完成数百项任务而不会感到疲倦。

企业越来越多地采用自主式AI来处理重复的安全任务,如警报分类,从而让人类分析师专注于最严重的威胁,但尽管自主式AI可能速度很快,但它并非万无一失,它天生就不了解企业独特的风险环境或安全优先级。

就像任何新员工一样,智能体需要指导才能发挥效用,它必须被调整、监控和完善,以与企业的安全政策和运营工作流程保持一致。

安全运营的转变并不是要取代人类分析师,而是要增强他们的能力。智能体就像一双额外的手,能够筛选数据并识别潜在威胁,然而,如果不加以控制,AI可能会强化错误的假设、误解数据或产生误导性的结论。

AI就像初级分析师:有能力,但需要培训

网络安全中的智能体与过去的传统基于规则的系统不同。与基于剧本的自动化(遵循一组固定指令)不同,自主式AI是动态的——它会随着时间的推移而学习、适应和完善其方法。

它不会盲目地执行预定义的规则,而是基于逻辑推理做出决策,分析庞大数据集中的模式以检测可能表明威胁的异常,但这种灵活性也是一把双刃剑。如果没有明确的方向,AI可能会误解信号、忽视关键上下文或强化错误的假设。

在许多方面,智能体就像一个非常聪明的初级安全分析师,但是,就像新入职的人类分析师在第一天不了解业务背景一样,AI在没有给出正确上下文的情况下,缺乏对企业风险承受能力、关键资产或内部工作流程的固有认识。如果不提供正确的上下文,它可能会标记出不重要的异常,同时错过真正危险的威胁。

与初级员工一样,自主式AI需要入职培训、指导和定期反馈,以确保其决策与现实世界的优先级保持一致。安全团队必须将AI视为一个发展中的分析师,而不是一个一次性使用的工具,它会随着时间的推移而变得更加有效。

没有这种指导,没有业务背景的AI只是已经十分复杂的安全环境中又一个不可预测的变量。有了这种指导,AI将成长为一个值得信赖的伙伴,它永远不会忘记细节,并且始终如一地应用企业的政策、做法和偏好。

建立自主式AI入职培训流程

就像任何新团队成员一样,智能体在达到最大效能之前需要入职培训。如果没有适当的入职培训,它们可能会错误地对威胁进行分类、产生过多的误报或无法识别微妙的攻击模式。这就是为什么更成熟的自主式AI系统会要求访问内部文档、历史事件日志或聊天历史记录,以便系统可以研究它们并根据企业情况进行调整。

历史安全事件、环境细节和事件响应手册可作为培训材料,帮助AI识别企业独特安全环境中的威胁,或者,这些细节也可以帮助代理系统识别良性活动。例如,一旦系统了解了允许哪些VPN服务或哪些用户被授权进行安全测试,它就会知道将与这些服务或活动相关的某些警报标记为良性。

上下文是关键,智能体可以轻松训练以了解业务特定的风险因素:哪些资产最关键,哪些用户拥有高级权限,哪些行为应被视为安全而非可疑。还应将其配置为遵循既定的调查工作流程、升级程序和报告结构,以确保其决策与安全团队的操作保持一致。当得到适当的调整和配置时,自主式AI不仅处理警报,它还能做出明智的、基于上下文的决策,增强安全性,而不会增加不必要的噪音。

指导AI进行持续改进

调整AI不是一次性事件,而是一个持续的过程。就像任何团队成员一样,自主式AI的部署通过经验、反馈和持续改进而得到优化。

第一步是保持人类参与的监督,就像任何负责任的管理者一样,安全分析师必须定期审查AI生成的报告,验证关键发现,并在必要时完善结论。AI不应作为黑箱操作,其推理必须是透明的,以便人类分析师了解决策是如何得出的。

要明白错误在所难免,误报和漏报是不可避免的,但安全团队如何处理它们决定了AI是变得更智能还是停滞不前。分析师必须介入,纠正AI的推理,并将这些见解反馈给系统。

大多数自主式AI系统都接受覆盖和更正以完善其推理。随着时间的推移,这种迭代过程提高了AI减少噪音的能力,同时提高了系统在识别真正威胁方面的准确性。

当将AI视为学习系统而不是万无一失的神谕时,它就不仅仅是一个工具,而是网络安全中的合作伙伴。投资于调整其AI的团队将减少警报疲劳,并建立能够不断适应新威胁的安全运营。

AI与人类协作:SOC工作的未来

安全运营的未来不是要在AI和人类分析师之间做出选择,而是要利用两者来构建更强大、更具可扩展性的安全运营中心(SOC)。分析师将过渡到监督和战略角色,而AI将承担起调查每个警报、查询日志以回答问题并将所有内容整合到报告中的繁重工作。

安全专业人员将不再被重复的警报分类工作所困扰,而是将精力集中在监督智能体和需要人类判断和精细技巧的项目上。这一转变将提高效率,并使安全团队能够变得更加主动,将更多时间花在威胁建模、攻击面管理和长期风险降低上。

为了迎接这个AI增强的未来,企业必须学会管理和微调自主式AI系统。分析师必须培养AI监督的新技能,使用自然语言提示来调整AI行为,并进行调查审计,确保AI成为可靠资产而不是负债。

未来的网络安全职位描述将反映这一演变,要求具备威胁检测方面的专业知识以及监督和完善AI驱动的安全工作流程的能力,就像SOC经理一样。那些适应这一新现实的人将创建一个不仅更快、更高效,而且更具弹性的安全运营。

相关资讯

自主式AI爆发前夜,企业如何押注黄金场景?

今年可能是自主式AI大放异彩的一年,许多企业都在寻找增值用例。 一个关键问题:哪些业务流程实际上适合采用自主式AI?商业咨询公司德勤预测,到2025年,在使用GenAI的公司中,有25%将推出自主式AI试点或概念验证,到2027年这一比例将增长到50%。 该公司表示,在某些行业、某些用例中,自主式AI应用可能会在今年被纳入现有工作流程。
3/12/2025 2:25:24 PM
Bob Violino

2025年的十大网络安全预测

人工智能在2025年仍将是一个热门话题,但不要错过其他趋势,包括初始访问代理的增长、首席信息安全官(vCISO)的崛起、技术合理化等等。 每年这个时候,行业专家和分析师都会关注明年的网络安全趋势、预测和挑战。 专家预测,到2024年,生成式人工智能(GenAI)和大型语言模型将会增加,勒索软件攻击和第三方供应链挑战也将持续。
1/21/2025 2:58:29 PM
Harris编译

2025红队报告:AI被夸大,并未颠覆网络安全威胁格局

据网络安全公司Picus Labs发布的《2025年红队报告》(Red Report 2025)显示,尽管人工智能(AI)在网络安全领域备受热炒,但截至目前,AI并未显著改变网络威胁格局,现实世界中的网络攻击仍主要依赖一组已知的战术、技术和程序(TTPs)。 这一发现与媒体对AI作为“网络犯罪终极武器”的过度宣传形成鲜明对比,提醒企业将注意力集中于实际存在的、实实在在的网络安全挑战上。 AI热潮的现实落差近年来,AI被视为网络犯罪的“秘密武器”,媒体报道频频提及其在网络攻击中的潜力。
2/25/2025 11:04:20 AM
佚名
  • 1