AI在线 AI在线

到2027年,40%人工智能数据泄露将来自跨境GenAI滥用

根据Gartner数据,到2027年超过40%的人工智能相关数据泄露将由跨境不当使用生成式人工智能(GenAI)引起。 用户对GenAI技术的应用范围和速度超过了数据治理和安全措施的发展,由于支持这些技术所需的集中计算能力有限,引发了人们对数据本地化的担忧。 Gartner副总裁分析师Joerg Fritsch表示:“由于监管不足,经常会发生意外的跨境数据传输,特别是当GenAI在没有明确描述或公告的情况下集成到现有产品中时。

根据Gartner数据,到2027年超过40%的人工智能相关数据泄露将由跨境不当使用生成式人工智能(GenAI)引起。

到2027年,40%人工智能数据泄露将来自跨境GenAI滥用

用户对GenAI技术的应用范围和速度超过了数据治理和安全措施的发展,由于支持这些技术所需的集中计算能力有限,引发了人们对数据本地化的担忧。

Gartner副总裁分析师Joerg Fritsch表示:“由于监管不足,经常会发生意外的跨境数据传输,特别是当GenAI在没有明确描述或公告的情况下集成到现有产品中时。”“组织注意到员工使用GenAI工具生成的内容发生了变化。虽然这些工具可用于批准的业务应用程序,但如果向未知位置托管的AI工具和API发送敏感提示,则会带来安全风险。”

全球人工智能标准化差距导致运营效率低下

人工智能和数据治理缺乏一致的全球最佳实践和标准,导致市场碎片化,迫使企业制定针对特定地区的战略,从而加剧了挑战。这可能会限制他们在全球范围内扩展运营并从人工智能产品和服务中受益的能力。

Fritsch说:“由于本地化的人工智能政策,管理数据流和保持质量的复杂性可能会导致运营效率低下。”“组织必须投资于先进的人工智能治理和安全,以保护敏感数据并确保合规性。这一需求可能会推动人工智能安全、治理和合规服务市场的增长,以及提高人工智能流程透明度和控制力的技术解决方案。”

在人工智能治理成为全球任务之前,组织必须采取行动

Gartner预测,到2027年,人工智能治理将成为全球所有主权人工智能法律法规的要求。

Fritsch说:“无法整合所需治理模型和控制的组织可能会发现自己处于竞争劣势,尤其是那些缺乏快速扩展现有数据治理框架的资源的组织。”

为了降低人工智能数据泄露的风险,特别是跨境滥用GenAI的风险,并确保合规性,Gartner建议企业采取以下几项战略行动:

加强数据治理:组织必须确保遵守国际法规,并通过扩展数据治理框架来包括人工智能处理数据的指导方针,从而监控意外的跨境数据传输。这涉及将数据沿袭和数据传输影响评估纳入定期隐私影响评估。

建立治理委员会:成立委员会以加强人工智能监督,并确保有关人工智能部署和数据处理的透明沟通。这些委员会需要负责技术监督、风险和合规管理以及沟通和决策报告。

加强数据安全:使用先进技术、加密和匿名化来保护敏感数据。例如,验证特定地理区域的可信执行环境,并在数据必须离开这些区域时应用高级匿名技术,如差分隐私。

投资TRiSM产品:规划和分配针对人工智能技术量身定制的信任、风险和安全管理(TRiSM)产品和功能的预算。这包括人工智能治理、数据安全治理、即时过滤和编辑以及非结构化数据的合成生成。Gartner预测,到2026年,应用人工智能TRiSM控制的企业将减少至少50%的不准确或非法信息,从而减少错误决策。

Gartner安全与风险管理峰会

Gartner分析师于3月3日至4日在悉尼、3月10日至11日在印度、4月7日至8日在迪拜、6月9日至11月在美国马里兰州国家港、7月23日至25日在日本东京、8月5日至6日在巴西圣保罗和9月22日至24日在英国伦敦举行的Gartner安全与风险管理峰会上为安全和风险管理领导者提供最新的研究和建议。

相关资讯

Gartner预测到2027年,跨境GenAI滥用引起的AI数据泄露比例将达到40%

Gartner预测,到2027年,跨境生成式人工智能(GenAI)引起的AI相关数据泄露比例将超过40%。 GenAI在终端用户中的普及速度已超过了数据治理和安全措施的发展速度,而支持这些技术所需的集中算力引发了对数据本地化的担忧。 Gartner研究副总裁Joerg .
2/21/2025 2:50:19 PM

AI如何重塑治理、风险与合规战略

随着企业将网络安全纳入治理、风险与合规(GRC)体系,重新审视现有的GRC计划至关重要,以确保GenAI和自主式AI使用量的增加及其带来的风险得到妥善处理,从而让企业能够持续满足监管要求。 “AI是一种极具颠覆性的技术,它并非可以简单归类并定义为‘这就是AI’的事物,”国际信息系统审计与控制协会(ISACA)董事会成员兼澳大利亚证券和投资委员会(ASIC)的CISO杰米·诺顿(Jamie Norton)表示。 AI的风险难以量化,但AI的采用如何扩大和改变企业的风险面,这方面数据可提供线索。
7/21/2025 7:15:00 AM
Rosalyn

如何避免交叉验证中的数据泄露?

大家好,我是小寒在机器学习中,交叉验证(Cross-Validation)是一种常用的模型评估技术,目的是通过将数据集分割为多个子集,反复训练和验证模型,以便更好地估计模型的性能。 然而,在交叉验证过程中,数据泄露(Data Leakage) 是一个非常严重的问题,它会导致模型的评估结果过于乐观,进而使得模型在实际应用中表现不佳。 什么是数据泄露数据泄露是指在模型训练过程中,模型不恰当地接触到了与验证集或测试集相关的信息,导致模型的训练过程中“提前知道”了本应该不在训练数据中的信息。
1/22/2025 7:59:59 AM
程序员小寒
  • 1