AI在线 AI在线

Anthropic 重大隐私政策更新:用户数据将用于模型训练,需在9月28日前选择退出

Anthropic 正在对其用户数据处理方式进行重大调整。 该公司宣布,从即日起,所有 Claude 用户必须在9月28日之前决定是否将其对话用于训练 AI 模型。 此前,Anthropic 曾承诺不使用消费者的聊天数据进行模型训练,并会在30天后自动删除用户提示和对话输出。

Anthropic 正在对其用户数据处理方式进行重大调整。该公司宣布,从即日起,所有 Claude 用户必须在9月28日之前决定是否将其对话用于训练 AI 模型。此前,Anthropic 曾承诺不使用消费者的聊天数据进行模型训练,并会在30天后自动删除用户提示和对话输出。

政策变化概述

这项新政策适用于所有 Claude Free、Pro 和 Max 用户,包括使用 Claude Code 的用户。这意味着,用户的对话和编程会话现在可能被用于训练 Anthropic 的 AI 系统。同时,未选择退出的用户数据保留期限将延长至五年。值得注意的是,Claude Gov、Claude for Work、Claude for Education 或 API 访问的企业客户不受此政策影响,这与 OpenAI 保护企业客户的做法类似。

Claude

Anthropic 缘何改变?

Anthropic 在其博客文章中表示,此举是为了“帮助我们提高模型安全性,使我们检测有害内容的系统更加准确”,并帮助未来的 Claude 模型“提升编码、分析和推理等技能”。简而言之,公司声称这是为了提供更好的模型。

然而,更深层次的原因可能在于对数据的迫切需求。与所有大型语言模型公司一样,Anthropic 需要大量高质量的对话数据来训练其 AI 模型,以增强其与 OpenAI 和谷歌等竞争对手的竞争力。访问数百万次 Claude 用户互动,能够为 Anthropic 提供宝贵的现实世界内容。

行业数据政策的转变与用户困惑

Anthropic 的政策调整反映了整个行业数据政策的广泛转变。由于面临日益严格的数据保留审查,AI 公司正在重新审视其隐私协议。例如,OpenAI 目前正因《纽约时报》等出版商的诉讼,面临一项法院命令,要求其无限期保留所有消费者 ChatGPT 对话。OpenAI 首席运营官布拉德·莱特卡普称此为一项“不必要的要求”,并认为这与公司向用户做出的隐私承诺相冲突。

这种不断变化的使用政策给用户带来了极大的困惑。许多用户并未意识到,他们已经同意的准则正在悄然改变。尤其值得关注的是,新用户注册时可以选择偏好设置,而老用户则会弹出一个巨大的“消费者条款和政策更新”窗口,旁边是一个醒目的“接受”按钮,而用于培训权限的开关则被设计得更小,并默认设置为“开启”。这种设计模式,如 The Verge 所指出的,可能导致用户快速点击“接受”而没有注意到数据共享的同意选项。

隐私专家长期以来一直警告,AI 的复杂性使得获得用户的有效同意变得异常困难。联邦贸易委员会(FTC)曾警告,如果 AI 公司“秘密更改其服务条款或隐私政策,或将信息披露隐藏在超链接、法律术语或细则中”,将面临执法行动。然而,FTC 是否仍在关注这些做法,仍是一个悬而未决的问题。

相关资讯

Meta计划利用欧盟用户数据训练AI,引发隐私担忧

Meta Platforms, Inc.宣布计划利用其在欧盟地区应用程序(包括Facebook和Instagram)的用户数据来训练人工智能模型。 该公司明确指出,训练数据将包括用户的公开帖子、评论以及与Meta AI的聊天记录,但不涉及“与亲朋好友的私人消息”,且训练仅面向18岁以上的用户。 Meta表示,本周将通过应用内通知和电子邮件向其欧盟用户告知这一计划,并提供一个异议表单链接,供希望退出的用户选择。
4/15/2025 10:01:32 AM
AI在线

​苹果公司计划通过设备数据提升人工智能技术

苹果公司(Apple Inc.)最近宣布,将开始分析用户设备上的数据,以增强其人工智能平台。 这一举措旨在在保障用户信息安全的同时,帮助苹果在与竞争对手的人工智能技术较量中缩小差距。   目前,苹果主要使用合成数据来训练其人工智能模型。
4/15/2025 3:01:29 PM
AI在线

Anthropic 最强 AI 模型 Claude Sonnet 4 / Opus 4 有望明日发布

科技媒体 bleepingcomputer 今天(5 月 22 日)发布博文,报道称基于 Anthropic 官网配置文件,该公司正秘密研发 Claude Sonnet 4 和 Claude Opus 4 两款全新 AI 模型。
5/22/2025 10:48:24 AM
故渊
  • 1