AI在线 AI在线

急于实施AI时被忽视的八个安全风险

在追求GenAI带来的生产力提升的过程中,大多数企业都忽视了这样做可能带来的安全影响,转而倾向于寄希望于具有变革性的创新,而非采用可靠的安全实践。 根据世界经济论坛与埃森哲合作进行的一项研究,63%的企业在部署AI工具之前未能评估其安全性,从而给企业带来了一系列风险。 这既包括现成的AI解决方案,也包括与软件开发团队合作创建的内部实现。

急于实施AI时被忽视的八个安全风险

在追求GenAI带来的生产力提升的过程中,大多数企业都忽视了这样做可能带来的安全影响,转而倾向于寄希望于具有变革性的创新,而非采用可靠的安全实践。

根据世界经济论坛与埃森哲合作进行的一项研究,63%的企业在部署AI工具之前未能评估其安全性,从而给企业带来了一系列风险。

这既包括现成的AI解决方案,也包括与软件开发团队合作创建的内部实现。根据Tricentis的2025年质量转型报告,这些团队绝大多数(45%)专注于提高交付速度,而非增强软件质量(13%),尽管有三分之一(32%)的受访者承认,质量低劣的软件很可能导致更频繁的安全漏洞或合规失败。

而且,这些漏洞和失败确实越来越频繁。思科最新发布的《网络安全准备指数》于5月7日公布,该指数显示,86%的企业在过去一年中经历过与AI相关的安全事件,不到一半(45%)的企业认为其内部资源和专业知识足以进行全面的AI安全评估。

最常见的被忽视的AI安全风险

专家们表示,未能充分测试AI系统就进行部署,会使企业面临一系列与传统软件风险显著不同的漏洞。以下是一些最常见的风险:

数据泄露

AI系统经常处理大量敏感信息,如果没有进行严格的测试,企业可能会忽视这些数据泄露的容易程度,无论是通过不安全的存储、过于慷慨的API响应,还是糟糕的访问控制。

“许多AI系统在推理过程中会摄入用户数据,或为保持会话持久性而存储上下文,”AI安全测试供应商Mindgard的CEO兼联合创始人Peter Garraghan博士说,“如果数据处理未经过审计,就有很高的数据泄露风险,这些风险可能通过模型输出、日志泄露或微调数据集的滥用而发生,这些风险会因大型语言模型(LLM)的内存功能或流式输出模式而加剧。”

模型级漏洞

这些漏洞包括提示注入、越狱和对抗性提示链。如果没有严格的测试,模型可能会被操纵以绕过输出约束、泄露敏感数据或执行非预期任务。

“这些攻击往往利用模型对齐机制的缺陷或其对标记级推理的依赖。”英国兰卡斯特大学的讲师Garraghan解释道。

模型完整性和对抗性攻击

如果没有对对抗性操纵或中毒训练数据进行测试,攻击者很容易影响AI模型的行为,尤其是当该模型被用于支持业务决策或自动化敏感任务时。

全球网络安全咨询公司CyXcel的首席运营官Jano Bermudes说:“攻击者可以操纵输入数据来欺骗AI模型,导致其做出错误决策,这包括逃避攻击和数据中毒。”

系统性集成风险

AI模型经常作为更大应用程序管道的一部分进行部署,例如通过API、插件或检索增强生成(RAG)架构。

“在这方面测试不足可能导致模型输入和输出的不安全处理、通过序列化数据格式的注入路径以及托管环境中的权限提升,”Mindgard的Garraghan说,“这些集成点在常规应用程序安全(AppSec)工作流程中经常被忽视。”

访问控制失败

AI工具经常接入更广泛的系统,如果配置不当,可能会给用户或攻击者超出预期的访问权限,这可能包括暴露的API密钥、糟糕的身份验证或日志记录不足,使得滥用行为难以被发现。

运行时安全失败

AI系统在部署期间可能仅在特定输入条件下表现出紧急行为,尤其是在与其他服务交互时。

“逻辑损坏、上下文溢出或输出反射等漏洞通常仅在运行时出现,需要通过操作红队测试或实时流量模拟来检测。”Garraghan说。

合规违规

未能确保AI工具符合监管标准可能导致法律后果。

例如,由于AI工具未经授权的数据处理或未测试的模型行为导致的中断,可能引发监管违规。

更广泛的运营影响

“这些技术漏洞如果不经过测试,并不会孤立存在,”Mindgard的Garraghan说,“它们表现为更广泛的企业风险,超越了工程领域。从运营影响的角度来看,AI安全测试不足的后果直接映射到安全、安全和业务保障的失败。”

合规专家ISMS.online的首席产品官Sam Peters看到了企业因忽视适当的AI安全审查而导致的广泛运营影响。

“当AI系统匆忙投入生产时,我们在三个关键领域反复看到漏洞:模型完整性(包括中毒和逃避攻击)、数据隐私(如训练数据泄露或敏感数据处理不当)和治理差距(从缺乏透明度到访问控制不佳)。”他说。

Peters补充道:“这些问题并非假设;它们已经在现实中被利用。”

针对交付进行测试

急于实施AI给CISO带来了压力,但应用安全测试公司Sparrow的首席运营官James Lei建议CISO应抵制盲目引入的热情,将基本安全实践纳入部署过程。

“为降低这些风险,企业应像测试任何高风险软件一样测试AI工具,运行模拟攻击、检查滥用场景、验证输入输出流程,并确保任何处理的数据都得到适当保护。”他说。

为降低这些风险,企业应实施全面的测试策略,例如:

• 渗透测试:模拟攻击以识别漏洞

• 偏见和公平性审计:确保AI决策公平且无歧视

• 合规性检查:验证是否符合相关法规和标准

通过将安全测试纳入AI开发生命周期,企业可以在利用AI优势的同时防范潜在威胁。

“在部署AI工具之前,企业应针对AI系统进行威胁建模、对抗性输入的红队测试以及模型漂移和数据泄露的严格测试,”ISMS.online的Peters说,“同时,他们应将AI特定控制纳入其风险管理和合规计划。”

Peters补充道:“这就是新的ISO/IEC 42001标准真正发挥作用的地方,它提供了一个负责任地治理AI的框架,包括风险评估、数据处理、安全控制和持续监控的指导。”

其他专家在肯定安全测试必要性的同时,认为在测试AI系统安全性时需要采用不同的方法。

“与常规软件测试不同,你不能仅仅通过查看神经网络的代码来判断其是否安全,”众包安全提供商Intigriti的首席黑客官Inti De Ceukelaire告诉记者,“即使它是在干净、高质量的数据上训练的,仍然可能表现出奇怪的行为,这使得很难知道何时测试已经足够。”

AI工具通常为简单问题提供复杂解决方案,测试人员可能只关注工具应做的事情,而忽略其他可能做的事情。“例如,翻译工具可能被诱骗打开包含恶意代码的PDF文件或访问内部文件并为其翻译以供公司外部人员查看。”De Ceukelaire解释道。

企业应考虑实施专门为AI设计的对抗性测试框架。

“这包括静态模型分析、动态提示模糊测试、集成层攻击模拟和运行时行为监控,”Mindgard的Garraghan说,“这些实践应嵌入AI部署生命周期中,就像DevSecOps实践被集成到软件CI/CD管道中一样。”

相关资讯

影子AI:CISO常忽视的安全隐患

在企业数字化转型的浪潮中,一股新的力量正悄然兴起,却也让安全领导者和CISO们头疼不已——那就是影子AI。 这些并非来自外部攻击者的威胁,而是由本应值得信赖的员工,在没有IT和安全部门监督或批准的情况下,自行创建的AI应用。 它们如同数字世界的“兴奋剂”,让使用者能在短时间内完成更细致的工作,却也让企业的安全边界变得岌岌可危。
2/18/2025 3:13:29 PM
Louis Columbus

如何查明你的AI供应商是否存在安全风险

在采用AI的过程中,最令人担忧的问题之一是数据泄露。 想象一下这样的场景:一名员工登录到他们常用的AI聊天机器人中,粘贴了敏感的公司机密数据,并要求对其进行总结。 就这样,机密信息被输入到了不受你控制的第三方模型中。
4/11/2025 11:50:56 AM
Adam Burt

企业中最常用的十种GenAI工具

从AI聊天机器人和虚拟助手,到音频和视频生成器,这些都是当今最前沿的GenAI工具。 自OpenAI于2022年推出ChatGPT以来,GenAI已大规模进入企业领域。 根据Precedence Research的数据,2024年全球GenAI市场规模已超过250亿美元,并预计到2033年将达到惊人的8030亿美元。
4/25/2025 7:10:00 AM
Thor Olavsrud
  • 1