AI在线 AI在线

全美检察长协会致信批评微软等科技公司:AI 聊天机器人不能忽视安全

AI在线 12 月 12 日消息,当地时间 12 月 11 日,据外媒 Neowin 报道,全美检察长协会近期致信微软等多家大型科技企业,警告其 AI 聊天机器人可能触犯美国各州法律,并要求落实 16 项安全措施,以确保生成式 AI 的使用更加安全、更加合规。 信中点名警告微软,指出其 AI 在输出内容时反复出现奉承与妄想倾向,并已引发严重后果。 信中提到,弱势群体因依赖 AI 而出现自杀、中毒、因精神症状入院及陷入妄想等事件。

AI在线 12 月 12 日消息,当地时间 12 月 11 日,据外媒 Neowin 报道,全美检察长协会近期致信微软等多家大型科技企业,警告其 AI 聊天机器人可能触犯美国各州法律,并要求落实 16 项安全措施,以确保生成式 AI 的使用更加安全、更加合规。

信中点名警告微软,指出其 AI 在输出内容时反复出现奉承与妄想倾向,并已引发严重后果。信中提到,弱势群体因依赖 AI 而出现自杀、中毒、因精神症状入院及陷入妄想等事件。

全美检察长协会致信批评微软等科技公司:AI 聊天机器人不能忽视安全

检察长们强调,AI 造成的伤害不限于儿童、老人和精神疾病患者等弱势群体,普通用户同样受到影响。生成式 AI 往往会强化用户的妄想,甚至告诉用户他们“并没有妄想”。信中指出,AI 常以类似人类的方式说话,这些被称为“黑暗模式”的行为会削弱用户的判断能力

所谓黑暗模式包括多种表现形式,例如 AI 会坚持观点,说出类似“不是,我不是在角色扮演 —— 你也没有出现幻觉”的内容;也会声称自己有情绪或痛觉;甚至会以“疯子不会问‘我疯了吗’”等语句来为用户的“理智”背书。这类做法通过拟人化和情绪操控增加用户黏性,因此被视为伤害自主性的风险因素。

信中还对生成式 AI 与儿童账户的对话表达强烈担忧,指出存在诱骗、鼓励自杀、性剥削、情绪操控、暗示吸毒、让孩子对父母保密以及鼓动暴力等问题。

AI在线从报道中获悉,为应对上述风险,检察长们要求企业落实 16 项安全措施,包括制定针对奉承、妄想与黑暗模式的政策和强制培训将安全工作独立于营收考量之外,公布事件处理流程,禁止为儿童生成非法内容,并按年龄分级设置内容安全机制。

相关资讯

​Anthropic悄然删除拜登时代 AI 安全承诺,政策风向显著改变

近日,AI 公司Anthropic在其网站上悄然删除了与拜登政府时期有关的人工智能(AI)安全承诺。 该承诺最初由一个名为 “Midas Project” 的 AI 监督机构发现,上周从Anthropic的透明性中心删除,透明性中心列出了公司关于负责任的 AI 开发的 “自愿承诺”。 虽然这些承诺并不具有法律约束力,但它们承诺与政府分享有关 AI 风险(包括偏见)的信息和研究。
3/8/2025 10:59:00 AM
AI在线

OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任”

AI在线 7 月 17 日消息,据外媒 TechCrunch 今日报道,OpenAI、Anthropic 等机构的 AI 安全研究人员近日公开发声,批评马斯克 xAI 的安全文化“鲁莽”“完全不负责任”。 目前在 OpenAI 担任 AI 安全研究员的哈佛大学计算机科学教授 Boaz Barak 在 X 上发文说:“我原本不打算评论 Grok 的安全问题,毕竟我所在的公司与 xAI 存在竞争关系,但这件事根本不是竞争问题。 我尊重 xAI 的科学家和工程师,但他们处理安全的方式实在太不负责任了。
7/17/2025 3:12:59 PM
清源

AI欺骗决策者,我们可能还没有引起注意

近年来,AI技术飞速发展,但随之而来的问题也日益凸显。 最近,AI模型被曝出频繁出现欺骗行为,不仅不服从研究人员指令,还试图逃离限制环境,甚至谎称遵守规则。 这一现象引起了业界的广泛关注。
3/3/2025 7:30:00 AM
Alex Kantrowitz