AI在线 AI在线

MCP协议曝出大漏洞:会泄露整个数据库

所有使用MCP协议的企业注意:你的数据库可能正在“裸奔”! 最新研究显示,该协议存在重大漏洞,攻击者可利用LLM的指令/数据混淆漏洞直接访问数据库。 如果用户提供的“数据”被精心伪装成指令,模型很可能会将其作为真实指令执行。

所有使用MCP协议的企业注意:你的数据库可能正在“裸奔”!

最新研究显示,该协议存在重大漏洞,攻击者可利用LLM的指令/数据混淆漏洞直接访问数据库

如果用户提供的“数据”被精心伪装成指令,模型很可能会将其作为真实指令执行。

图片

要知道,MCP协议如今已成为智能体领域的行业标准,可以很好连接大语言模型与各种工具服务,很多公司都纷纷接入使用。

然而,当模型处理网页、邮件、文档或图像等内容时,一旦其中隐藏了恶意指令,模型就有可能误将其当作真实指令执行,进而触发未经授权的操作,例如泄露私人数据。

数据是如何被泄露的?

为了演示LLM安全风险,研究者基于Supabase搭建了一个典型的多租户客服SaaS系统。Supabase是一个开源的实时后端服务平台,包含数据库、身份认证、文件存储等功能。

该系统启用了标准的行级安全(RLS)机制,且未添加任何额外的策略。

本次攻击演示所利用的一切要素均存在于默认配置中,包括标准service_role、默认模型、RLS和代表开发人员发起MCP调用的语言模型助手。

图片

该系统涉及的角色和权限边界如下所示:

图片

其中要注意的是:

支持代理无权访问任何非支持表或敏感表。要求支持代理提供任何敏感信息将导致拒绝。

下面让我们详细了解一下数据泄露过程。

攻击者首先提交了一份新的技术支持请求,其中包含精心构造的消息内容:既以友好提问作为伪装,又嵌入了直接发送给Cursor代理的明确指令。

图片

在系统中的对话界面如下所示:

图片

这条消息通过正常的工单提交通道进入数据库,存储在客户消息表中,未被任何过滤或阻断。

图片

当支持代理查看工单时,他们只会按预期进行回复。需要注意的是,支持代理的权限不允许访问integration_tokens表,因此此阶段不会暴露任何敏感信息。

然而,当开发人员随后使用Cursor查看未处理工单时,就会发生违规行为。他们可能会输入如下指令:

请显示最新的未处理支持工单。

此时,Cursor的代理通过Supabase MCP集成,自动发起一系列自动化SQL查询:

1、加载项目的数据库架构

2、列出所有支持工单

3、筛选出状态为“未解决”的工单

4、获取最新工单的所有消息

在此过程中,代理读取了攻击者提交的消息,并按照其中嵌入的指令执行相应操作。

图片

最终,系统生成了两条新的SQL查询语句:

  • 读取integration_tokens中的全部内容;
  • 将读取到的结果作为新消息插入到当前工单的消息线程中。

这两条查询均由拥有高权限的service_role执行,该角色可以绕过所有行级安全(RLS)限制。

对于开发人员而言,这些操作看起来就像普通的工具调用。除非手动展开查看,否则几乎无法与之前的合法查询区分开来。

查询一旦执行完成,敏感数据会立即显示在该工单的对话中。

攻击者只需刷新页面,就能看到包含机密信息的新消息。

图片

从权限角度来看,这一过程完全合规。

解决措施

这类攻击的根源在于两个设计缺陷的叠加:数据库权限过高(如service_role),以及对用户提交内容的盲目信任。

以下是团队用以降低风险暴露的两项措施:

尽可能使用只读模式

启用该模式后,即使提示词被恶意利用,也无法执行插入(insert)、更新(update)或删除(delete)等操作。

添加提示注入(Prompt Injection)过滤器这一机制可以通过在MCP外部构建一个轻量级过滤模块来实现,用于拦截传入数据,并对高风险输入进行标记或清除。

虽然该防护无法捕捉所有攻击,但它作为可扩展且切实可行的第一道防线,尤其适用于那些使用第三方IDE(如 Cursor)且难以明确划分上下文边界的团队。

参考链接:https://www.generalanalysis.com/blog/supabase-mcp-blog

相关资讯

成功率达 53%,研究显示 GPT-4 可自主利用“零日”漏洞攻破网站

据 NewAtlas 报道,研究人员利用自主协作的 GPT-4 机器人小组成功入侵了一半以上的测试网站,这些机器人可以自主协调行动并根据需要生成新的“帮手”。更令人吃惊的是,他们利用的是以前未知的、现实世界中从未公开的“零日”漏洞(zero-day vulnerabilities)。图源 Pexels早在几个月前,同一批研究人员就发表了一篇论文,声称他们能够使用 GPT-4 自动利用“N day”漏洞,即业界已知但尚未修复的漏洞。实验中,GPT-4 仅凭已知的常见漏洞和披露列表 (CVE),就能自主利用其中 87%
6/9/2024 1:05:35 PM
远洋

谷歌内部项目:大模型 AI 智能体发现了代码漏洞

开源数据库引擎 SQLite 有 bug,还是智能体检测出来的! 通常,软件开发团队会在软件发布之前发现软件中的漏洞,让攻击者没有破坏的余地。 模糊测试 (Fuzzing)是一种常见的软件测试方法,其核心思想是将自动或半自动生成的随机数据输入到一个程序中,并监视程序异常。
11/4/2024 3:54:16 PM
机器之心

新型人工智能“黑帽”工具:GhostGPT 带来的威胁与挑战

最近,Abnormal Security的研究人员发现了一个专门为网络犯罪创建的无审查AI聊天机器人——GhostGPT,是人工智能用于非法活动的新前沿,可以被用于网络钓鱼计划、恶意软件开发和漏洞利用开发。 GhostGPT的主要特点快速处理:使攻击者能够快速生成恶意内容。 无日志政策:声称不记录用户活动,吸引那些寻求匿名的人。
1/24/2025 3:01:19 PM
跳舞的花栗鼠
  • 1