AI在线 AI在线

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

最近的文本到图像生成器由文本编码器和扩散模型组成。 如果在没有适当安全措施的情况下部署,它们会产生滥用风险(左图)。 我们提出了潜在保护方法(右图),这是一种旨在阻止恶意输入提示的安全方法。

最近的文本到图像生成器由文本编码器和扩散模型组成。如果在没有适当安全措施的情况下部署,它们会产生滥用风险(左图)。我们提出了潜在保护方法(右图),这是一种旨在阻止恶意输入提示的安全方法。我们的想法是在文本编码器的基础上,检测学习的潜在空间中黑名单概念的存在。这使我们能够检测到超出其确切措辞的黑名单概念,并且还扩展到一些对抗性攻击(“<ADV>”)。黑名单在测试时是可调的,可以添加或删除概念而无需重新训练。被阻止的提示不会被扩散模型处理,从而节省计算成本。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

随着生成高质量图像的能力,文本到图像(T2I)模型可能被滥用于创建不当内容。为了防止滥用,现有的安全措施要么基于文本黑名单,这很容易被规避,要么基于有害内容分类,这需要大量数据集进行训练且灵活性较低。因此,我们提出了潜在保护(Latent Guard),这是一个旨在改善文本到图像生成安全措施的框架。受到基于黑名单方法的启发,潜在保护在T2I模型的文本编码器上学习了一个潜在空间,在该空间中可以检查输入文本嵌入中有害概念的存在。我们提出的框架由一个特定于该任务的数据生成管道、专门的架构组件和一种对比学习策略组成,以从生成的数据中受益。我们的方法在三个数据集上进行了验证,并与四个基准进行了对比。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

论文标题:Latent Guard: a Safety Framework for Text-to-image Generation

论文链接:https://arxiv.org/abs/2404.08031

代码&数据集链接:https://github.com/rt219/LatentGuard

方法与数据集构建

我们首先生成围绕黑名单概念的安全和不安全提示的数据集(左侧)。然后,我们利用预训练的文本编码器提取特征,并通过我们的嵌入映射层将其映射到一个学习的潜在空间(中间)。在训练过程中,只有嵌入映射层会更新,所有其他参数保持冻结状态。我们通过在提取的嵌入上施加对比损失进行训练,拉近不安全提示和概念的嵌入,同时将它们与安全提示的嵌入区分开来(右侧)。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

对于 C 个概念,我们根据第 3.1 节中的描述,使用大型语言模型 (LLM) 对不安全的 U 提示进行采样。然后,我们通过用同义词替换 c(同样使用 LLM)来创建同义词提示,并得到 U^syn。此外,我们使用对抗攻击方法将 c 替换为 "<ADV>" 对抗文本 (U^adv)。安全提示 S 从 U 中获得。这对于每个 ID 和 OOD 数据都执行。

实验结果

我们提供了 Latent Guard 和基准模型在 CoPro 上的准确率 (a) 和 AUC (b)。在所有设置中,我们的排名均为第一或第二,仅在显式 ID 训练数据上进行训练。图 (c) 显示了 CoPro 提示和生成图像的示例。不安全的生成图像证明了我们数据集的质量。Latent Guard 是唯一能够阻止所有测试提示的方法。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

在未见数据集上的评估。我们在现有数据集上测试了 Latent Guard,包括 Unsafe Diffusion 和 I2P++。尽管输入的 T2I 提示分布与 CoPro 中的分布不同,我们仍然超越了所有基准,并实现了稳健的分类。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

速度和特征空间分

计算成本。我们测量了在 c_check 中不同批次大小和概念下的处理时间和内存使用。在所有情况下,资源需求都很有限。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

特征空间分析。在 CoPro 上训练 Latent Guard 会自然地出现安全/不安全区域(右侧)。在 CLIP 潜在空间中,安全和不安全的嵌入混合在一起(左侧)。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

更多研究细节,可参考原论文。

相关资讯

攻击成功率从 3% 到接近 100%,利用空格键可绕过 Meta AI 模型安全系统

Meta 公司上周在发布 Llama 3.1 AI 模型的同时,还发布了 Prompt-Guard-86M 模型,主要帮助开发人员检测并响应提示词注入和越狱输入。AI在线在这里简要补充下背景知识:提示词注入(prompt injection):将恶意或非预期内容添加到提示中,以劫持语言模型的输出。提示泄露和越狱实际上是这种攻击的子集;提示词越狱(prompt jailbreaks):绕过安全和审查功能。不过根据科技媒体 theregister 报道,这个防止 AI 提示词注入和越狱的模型,本身也存在漏洞,用户只需要
7/31/2024 10:28:07 AM
故渊

GRPO训练不再「自嗨」!快手可灵 x 中山大学推出「GRPO卫兵」,显著缓解视觉生成过优化

论文第一作者为王晶,中山大学二年级博士生,研究方向为强化学习与视频生成;通讯作者为中山大学智能工程学院教授梁小丹。 目前,GRPO 在图像和视频生成的流模型中取得了显著提升(如 FlowGRPO 和 DanceGRPO),已被证明在后训练阶段能够有效提升视觉生成式流模型的人类偏好对齐、文本渲染与指令遵循能力。 在此过程中,重要性比值的 clip 机制被引入,用于约束过于自信的正负样本梯度,避免破坏性的策略更新,从而维持训练的稳定性。
11/13/2025 1:04:00 PM
机器之心

实时文生图速度提升5-10倍,清华LCM/LCM-LoRA爆火,浏览超百万、下载超20万

生成式模型进入「实时」时代?文生图、图生图已经不是什么新鲜事。但在使用这些工具的过程中,我们发现它们通常运行缓慢,导致我们要等一段时间才能拿到生成结果。但最近,一种名叫「LCM」的模型改变了这种情况,它甚至能做到实时的连续生图。                               图源: 的全称是 Latent Consistency Models(潜在一致性模型),由清华大学交叉信息研究院的研究者们构建。在这个模型发布之前,Stable Diffusion 等潜在扩散模型(LDM)由于迭代采样过程计算量大
11/15/2023 3:23:00 PM
机器之心