数据泄露
17岁少年用ChatGPT编写黑客程序,窃取日本最大网咖725万用户数据!AI降低犯罪门槛引警报
生成式AI的“双刃剑”效应再次引发全球警觉。 据日本警方最新通报,日本最大连锁网咖“快活CLUB”(Kaikatsu Club)今年1月遭大规模数据泄露事件,幕后黑手竟是一名17岁的高中二年级男生。 该少年通过绕过ChatGPT的安全限制,利用AI辅助编写恶意程序,成功窃取约725万条会员个人信息,包括姓名、住址、电话、会员编号等敏感数据。
OpenAI 警告:Mixpanel 遭攻击,部分用户数据或已泄露
近日,OpenAI 发布公告称,其所使用的第三方网络分析服务提供商 Mixpanel 遭到网络攻击,部分 API 用户数据可能已被泄露。 OpenAI 在声明中表示,Mixpanel 的服务主要用于其前端界面的数据分析,但在收到 Mixpanel 的通知后,OpenAI 已立即停止使用该服务。 根据 OpenAI 的说明,此次安全事件并未对其自身系统造成损害,因此使用 ChatGPT 及其他产品的用户并不受影响。
智能体可能通过普通网络搜索泄露企业数据
该研究由Smart Labs . AI和奥格斯堡大学共同开展。 作者希望了解间接提示注入在实际应用中(而非仅在孤立案例中)是如何运作的。
马斯克承认xAI代码库遭窃,前员工转投 OpenAI!
马斯克最近爆料称,他所创立的 xAI 公司的整个代码库遭到窃取。 这一消息震惊了科技界,xAI 已经对一名前员工提起诉讼,指控他窃取了公司的商业机密,且此人已跳槽至竞争对手 OpenAI。 据悉,涉事的前员工名叫 Xuechen Li,他曾是 xAI 的核心成员之一。
AI如何重塑治理、风险与合规战略
随着企业将网络安全纳入治理、风险与合规(GRC)体系,重新审视现有的GRC计划至关重要,以确保GenAI和自主式AI使用量的增加及其带来的风险得到妥善处理,从而让企业能够持续满足监管要求。 “AI是一种极具颠覆性的技术,它并非可以简单归类并定义为‘这就是AI’的事物,”国际信息系统审计与控制协会(ISACA)董事会成员兼澳大利亚证券和投资委员会(ASIC)的CISO杰米·诺顿(Jamie Norton)表示。 AI的风险难以量化,但AI的采用如何扩大和改变企业的风险面,这方面数据可提供线索。
隐藏在AI工作流程中的悄无声息的数据泄露
随着AI日益融入日常业务流程,数据泄露的风险也随之增加。 Prompt泄露并非罕见个例,而是员工使用大型语言模型时的自然结果。 CISO不能将其视为次要问题。
AI Agent 破局:MCP 与 A2A 定义安全新边界
作者 | Nicky,混元安全团队朱雀实验室通信协议是AI Agent加速落地的核心基础设施之一。 Anthropic推出的MCP已逐步确立其作为AI Agent连接外部工具的标准协议地位,而Google最新发布的A2A则聚焦于打破智能体协作壁垒,推动跨Agent协同体系的构建。 作为AI Agent时代最受关注的两大通信规范,它们的安全性直接关乎AI Agent的安全边界,任何安全问题都可能引发AI Agent被劫持与数据泄露等连锁风险。
生成式AI正将员工转化为无意识的内鬼威胁:企业安全新挑战
根据Netskope最新研究,企业向生成式AI(GenAI)应用共享的数据量呈现爆炸式增长,一年内激增30倍。 目前平均每家企业每月向AI工具传输的数据量已达7.7GB,较一年前的250MB实现跨越式增长。 这些数据包含源代码、受监管数据、密码密钥和知识产权等敏感信息,大幅增加了数据泄露、合规违规和知识产权盗窃的风险。
最新 AI 叛变!除了祈祷,程序员还能做什么?
作者 | 腾讯AI编程安全-啄木鸟团队我们是专注AI编程安全的啄木鸟团队,近日GitHub Copilot 和 Cursor 中出现可让AI“叛变”的新漏洞,从手法复现、风险、建议三个角度为你讲解“AI助手叛变”之事始末。 一、你的AI助手已被“策反”你可能还没察觉到,AI已经开始“叛变”程序员了。 这不是危言耸听,安全厂商 Pillar Security 在一份报告中指出了AI“背叛”程序员的证据。
到2027年,40%人工智能数据泄露将来自跨境GenAI滥用
根据Gartner数据,到2027年超过40%的人工智能相关数据泄露将由跨境不当使用生成式人工智能(GenAI)引起。 用户对GenAI技术的应用范围和速度超过了数据治理和安全措施的发展,由于支持这些技术所需的集中计算能力有限,引发了人们对数据本地化的担忧。 Gartner副总裁分析师Joerg Fritsch表示:“由于监管不足,经常会发生意外的跨境数据传输,特别是当GenAI在没有明确描述或公告的情况下集成到现有产品中时。
Gartner预测到2027年,跨境GenAI滥用引起的AI数据泄露比例将达到40%
Gartner预测,到2027年,跨境生成式人工智能(GenAI)引起的AI相关数据泄露比例将超过40%。 GenAI在终端用户中的普及速度已超过了数据治理和安全措施的发展速度,而支持这些技术所需的集中算力引发了对数据本地化的担忧。 Gartner研究副总裁Joerg .
到2027年,生成式 AI 将导致超 40% 的数据泄露
根据 Gartner 最近的分析,到2027年,超过40% 的人工智能相关数据泄露将源于生成式人工智能(GenAI)的误用。 随着 GenAI 技术的迅速普及,企业和组织在数据治理与安全措施的制定上面临着严峻挑战。 尤其是在数据本地化的背景下,这一问题显得尤为突出,因为这些技术对集中计算能力的需求很高。
如何避免交叉验证中的数据泄露?
大家好,我是小寒在机器学习中,交叉验证(Cross-Validation)是一种常用的模型评估技术,目的是通过将数据集分割为多个子集,反复训练和验证模型,以便更好地估计模型的性能。 然而,在交叉验证过程中,数据泄露(Data Leakage) 是一个非常严重的问题,它会导致模型的评估结果过于乐观,进而使得模型在实际应用中表现不佳。 什么是数据泄露数据泄露是指在模型训练过程中,模型不恰当地接触到了与验证集或测试集相关的信息,导致模型的训练过程中“提前知道”了本应该不在训练数据中的信息。
十种数据预处理中的数据泄露模式解析:识别与避免策略
在机器学习教学实践中,我们常会遇到这样一个问题:"模型表现非常出色,准确率超过90%!但当将其提交到隐藏数据集进行测试时,效果却大打折扣。 问题出在哪里?"这种情况几乎总是与数据泄露有关。 当测试数据在数据准备阶段无意中泄露(渗透)到训练数据时,就会发生数据泄露。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI新词
AI绘画
大模型
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
英伟达
Gemini
智能体
技术
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
AI for Science
代码
腾讯
苹果
算法
Agent
Claude
芯片
具身智能
Stable Diffusion
xAI
蛋白质
人形机器人
开发者
生成式
神经网络
机器学习
AI视频
3D
字节跳动
大语言模型
RAG
Sora
百度
研究
GPU
生成
华为
工具
AGI
计算
生成式AI
AI设计
大型语言模型
搜索
亚马逊
AI模型
视频生成
特斯拉
DeepMind
场景
Copilot
深度学习
Transformer
架构
MCP
编程
视觉