数据泄露
AI如何重塑治理、风险与合规战略
随着企业将网络安全纳入治理、风险与合规(GRC)体系,重新审视现有的GRC计划至关重要,以确保GenAI和自主式AI使用量的增加及其带来的风险得到妥善处理,从而让企业能够持续满足监管要求。 “AI是一种极具颠覆性的技术,它并非可以简单归类并定义为‘这就是AI’的事物,”国际信息系统审计与控制协会(ISACA)董事会成员兼澳大利亚证券和投资委员会(ASIC)的CISO杰米·诺顿(Jamie Norton)表示。 AI的风险难以量化,但AI的采用如何扩大和改变企业的风险面,这方面数据可提供线索。
7/21/2025 7:15:00 AM
Rosalyn
隐藏在AI工作流程中的悄无声息的数据泄露
随着AI日益融入日常业务流程,数据泄露的风险也随之增加。 Prompt泄露并非罕见个例,而是员工使用大型语言模型时的自然结果。 CISO不能将其视为次要问题。
4/16/2025 7:00:00 AM
Mirko
AI Agent 破局:MCP 与 A2A 定义安全新边界
作者 | Nicky,混元安全团队朱雀实验室通信协议是AI Agent加速落地的核心基础设施之一。 Anthropic推出的MCP已逐步确立其作为AI Agent连接外部工具的标准协议地位,而Google最新发布的A2A则聚焦于打破智能体协作壁垒,推动跨Agent协同体系的构建。 作为AI Agent时代最受关注的两大通信规范,它们的安全性直接关乎AI Agent的安全边界,任何安全问题都可能引发AI Agent被劫持与数据泄露等连锁风险。
4/14/2025 9:00:00 AM
腾讯技术工程
生成式AI正将员工转化为无意识的内鬼威胁:企业安全新挑战
根据Netskope最新研究,企业向生成式AI(GenAI)应用共享的数据量呈现爆炸式增长,一年内激增30倍。 目前平均每家企业每月向AI工具传输的数据量已达7.7GB,较一年前的250MB实现跨越式增长。 这些数据包含源代码、受监管数据、密码密钥和知识产权等敏感信息,大幅增加了数据泄露、合规违规和知识产权盗窃的风险。
4/1/2025 8:50:00 AM
AI小蜜蜂
最新 AI 叛变!除了祈祷,程序员还能做什么?
作者 | 腾讯AI编程安全-啄木鸟团队我们是专注AI编程安全的啄木鸟团队,近日GitHub Copilot 和 Cursor 中出现可让AI“叛变”的新漏洞,从手法复现、风险、建议三个角度为你讲解“AI助手叛变”之事始末。 一、你的AI助手已被“策反”你可能还没察觉到,AI已经开始“叛变”程序员了。 这不是危言耸听,安全厂商 Pillar Security 在一份报告中指出了AI“背叛”程序员的证据。
3/31/2025 9:00:00 AM
腾讯技术工程
到2027年,40%人工智能数据泄露将来自跨境GenAI滥用
根据Gartner数据,到2027年超过40%的人工智能相关数据泄露将由跨境不当使用生成式人工智能(GenAI)引起。 用户对GenAI技术的应用范围和速度超过了数据治理和安全措施的发展,由于支持这些技术所需的集中计算能力有限,引发了人们对数据本地化的担忧。 Gartner副总裁分析师Joerg Fritsch表示:“由于监管不足,经常会发生意外的跨境数据传输,特别是当GenAI在没有明确描述或公告的情况下集成到现有产品中时。
3/19/2025 9:58:26 AM
佚名
Gartner预测到2027年,跨境GenAI滥用引起的AI数据泄露比例将达到40%
Gartner预测,到2027年,跨境生成式人工智能(GenAI)引起的AI相关数据泄露比例将超过40%。 GenAI在终端用户中的普及速度已超过了数据治理和安全措施的发展速度,而支持这些技术所需的集中算力引发了对数据本地化的担忧。 Gartner研究副总裁Joerg .
2/21/2025 2:50:19 PM
到2027年,生成式 AI 将导致超 40% 的数据泄露
根据 Gartner 最近的分析,到2027年,超过40% 的人工智能相关数据泄露将源于生成式人工智能(GenAI)的误用。 随着 GenAI 技术的迅速普及,企业和组织在数据治理与安全措施的制定上面临着严峻挑战。 尤其是在数据本地化的背景下,这一问题显得尤为突出,因为这些技术对集中计算能力的需求很高。
2/18/2025 11:38:00 AM
AI在线
如何避免交叉验证中的数据泄露?
大家好,我是小寒在机器学习中,交叉验证(Cross-Validation)是一种常用的模型评估技术,目的是通过将数据集分割为多个子集,反复训练和验证模型,以便更好地估计模型的性能。 然而,在交叉验证过程中,数据泄露(Data Leakage) 是一个非常严重的问题,它会导致模型的评估结果过于乐观,进而使得模型在实际应用中表现不佳。 什么是数据泄露数据泄露是指在模型训练过程中,模型不恰当地接触到了与验证集或测试集相关的信息,导致模型的训练过程中“提前知道”了本应该不在训练数据中的信息。
1/22/2025 7:59:59 AM
程序员小寒
十种数据预处理中的数据泄露模式解析:识别与避免策略
在机器学习教学实践中,我们常会遇到这样一个问题:"模型表现非常出色,准确率超过90%!但当将其提交到隐藏数据集进行测试时,效果却大打折扣。 问题出在哪里?"这种情况几乎总是与数据泄露有关。 当测试数据在数据准备阶段无意中泄露(渗透)到训练数据时,就会发生数据泄露。
11/4/2024 2:09:09 PM
Samy Baladram
- 1
资讯热榜
阿里推出 AI 医学助手 App“氢离子”:收录千万级核心期刊文献,还可查疾病、找药品
Lovart 实战深度测评!仅需4小时帮你完成一整套品牌全案设计!
性能比肩 Gemini-2.5 pro、o4-mini:阿里通义千问 Qwen 3 推理模型超级进化,现已开源
Meta 被指控盗用 2000 余部成人影片训练 AI,或面临 3.5 亿美元天价赔偿
刷新无监督异常检测上限!首提「匹配代价滤波for异常检测」范式 | ICML'25
AI和云基础设施初创企业E2B如何成为88%的财富100强企业的必备选择
OpenAI 董事会主席:如果你想快速烧掉百万美元,就开发自己的 AI 模型吧
阿里宋刚:突破用户体验瓶颈,将AI眼镜真正带入大众消费市场
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
用户
Meta
微软
GPT
学习
技术
图像
Gemini
AI创作
马斯克
论文
智能体
Anthropic
英伟达
代码
算法
训练
Stable Diffusion
芯片
蛋白质
开发者
腾讯
生成式
LLM
苹果
Claude
神经网络
AI新词
3D
研究
机器学习
生成
AI for Science
Agent
xAI
计算
人形机器人
Sora
AI视频
GPU
AI设计
百度
华为
搜索
大语言模型
工具
场景
字节跳动
具身智能
RAG
大型语言模型
预测
深度学习
伟达
视觉
Transformer
AGI
视频生成
神器推荐
亚马逊
Copilot
DeepMind
架构
模态
应用