
AI聊天工具正逐渐占据办公室场景,但隐私成本几何?用户在聊天界面中常感到匿名,可能会在未意识到风险的情况下分享个人数据。网络犯罪分子也发现了同样的漏洞,AI聊天对话中分享的信息最终引发重大数据泄露事件可能只是时间问题。
当工作场所工具缺乏监管时
专家警告称,用户在使用ChatGPT或Gemini等平台时应保持警惕,因为看似简单的交流仍可能留下持久的数据痕迹。在分享个人或敏感信息前,用户应牢记,除非主动提出要求,否则这些对话可能会被存储并用于训练未来的模型。
这些风险在公司内部已初见端倪。Concentric AI发现,在2025年上半年,Microsoft Copilot等生成式AI工具平均每家企业暴露了约300万条敏感记录。这很大程度上是因为员工在未经批准的系统之外使用AI工具,导致内部数据暴露且缺乏有效监控。
一些报告显示,员工使用的AI工具中,多达80%是在没有IT或安全团队监督的情况下运行的。据Harmonic Security称,企业每季度向生成式AI工具上传约1.3GB的文件,其中约20%的文件包含敏感数据。
因此,大多数企业现在都将生成式AI视为主要的IT问题,主要问题涉及数据泄露和模型操纵。
从私人提示到公开结果
这一问题不仅限于公司内部系统。研究表明,一些最常用的AI平台会收集敏感用户数据,并将其分享给第三方。用户对其信息的存储或再利用方式知之甚少,对其生命周期的控制也极为有限。
这引发了一个重要问题:人们与聊天机器人分享的信息会发生什么?
在一个案例中,用户公开分享链接后,这些链接被谷歌搜索引擎索引,共享的ChatGPT聊天内容出现在了谷歌搜索结果中。尽管私人分享功能仍然可用,但OpenAI随后移除了使这些链接可被搜索的功能。这并非个例。谷歌搜索结果中也出现了数十万条Grok对话。
最近一项研究旨在了解聊天机器人能记住多少信息,以及它们能多准确地描述对用户的了解。研究结果显示,在普通交流中,个人细节很容易被泄露,这引发了人们对这些数据能保留多久以及如何被再利用的担忧。
影子AI的兴起
商业领域中一个更令人担忧的趋势是影子AI的使用日益增多,员工为了更快完成任务而使用未经批准的工具。这些系统通常在没有公司监督的情况下运行,导致敏感数据在不知不觉中泄露到公共平台。
大多数员工承认,他们未经批准就通过这些工具分享信息,而IT领导者则指出数据泄露是最大的风险。尽管安全团队认为影子AI是一个严重问题,但员工往往认为其风险较低,或认为为了方便而付出这样的代价是值得的。
Tanium的首席安全顾问Tim Morris表示:“我们正看到一种风险更高的影子AI形式,即各部门对现有的生成式AI工具不满,开始使用DeepSeek等开源模型构建自己的解决方案。”
DeepSeek发布后不久,便迅速在个人和专业领域得到应用。早期,专家就开始指出其使用带来的隐私和安全风险,例如,美国海军已禁止其人员将该工具用于工作相关任务。特别令人担忧的是,用户数据可能存储在中国的服务器上,而中国在数据访问和监管方面适用不同的法律。
责任始于意识
公司需要更好地帮助员工了解如何安全地使用AI工具。这对于处理敏感信息的团队来说尤为重要,无论是医疗数据还是知识产权。任何数据泄露都可能造成严重后果,从损害公司声誉到导致巨额罚款。
Ivanti的首席法律顾问兼人力资源与安全高级副总裁Brooke Johnson表示:“AI治理只有在可执行时才有效。首先,要承认无论是否得到批准,AI很可能已在你的组织中得到应用。进行评估以了解正在使用哪些工具,以及哪些工具符合你的标准。
然后,制定实用的政策,明确何时以及如何应用AI。为团队配备易于访问且安全的经过审核的平台,减少对未经批准的替代方案的依赖。”