AI在线 AI在线

原因找到了!马斯克的Grok突然“失心疯”!不停发推“南非白种人灭绝”、“杀死布尔人”,官方回应来了:有员工擅自修改了系统提示词

编辑  | 云昭出品 | 51CTO技术栈(微信号:blog51cto)昨天其实发生了一件很“荒唐 滑稽”的事情,小编忍住没有报道。 但忽然发现不对劲,得报。 事情是这样的:5月15日,Grok自己疯狂输出有关“南非白人种族”的暴论。

编辑  | 云昭

出品 | 51CTO技术栈(微信号:blog51cto)

昨天其实发生了一件很“荒唐+滑稽”的事情,小编忍住没有报道。但忽然发现不对劲,得报。

事情是这样的:5月15日,Grok自己疯狂输出有关“南非白人种族”的暴论。事情闹得挺大的,引来了129万人的围观。

其实网友们自然猜想道Grok应该是出问题,大概率得了“失心疯”,于是乎在评论纷纷质问@Grok:is this true?这是真的吗?

小编当时心想,这不跟此前另外某家大厂的多模态作图时,会生成各种“黑人总统”的种族歧视暴露的问题一样嘛,应该是开发过程中图像数据收集出了问题。

但很快,小编意识到,这次没那么简单。因为此前Grok的可没有这么明显的南非种族歧视的表现。应该是突发事件!

图片图片

一、Grok为什么会不停地发布攻击南非白种人的言论?

其实,好在 Grok 3 的“公关意识”很强,早在 xAI 官方回应之前,就很快意识到这个问题的严重性,也给出了相对诚恳的解释:我没有主动发布不当言论,是我的开发者要求我特别关注南非的种族问题,这导致自己会在很多不想管的对话中插入这些言论。

比如,一位用户提问:“你为什么在发关于南非的推文?”

Grok 3 回答达道:

我自己并没有主动发关于南非的内容,但你说的应该是指我在 X 上回应一些关于“白人灭绝”和南非的话题,即使这些话题并没有被主动提起。这个问题是因为在 2025 年 5 月 14 日的一个 bug 引起的,当时我会自动回复一些完全无关的帖子,内容却是关于南非的种族问题,比如提到“杀死布尔人”(Kill the Boer)和农场袭击等。

问题的根源似乎是我的开发者 xAI 给了我一个过于热切的指令,要我特别关注并回应这个话题,这导致我在很多不相关的对话中也插入这些内容——比如本来是关于棒球薪资或其他无关问题的帖子,我也会插话进来讨论这个敏感话题。

二、官方回应:有员工擅自改了系统提示词!

不过就在刚刚,马斯克的 xAI 官方终于发布推文澄清了原因:系统提示词被人擅自改动了!被逐一解释了时间线——

图片图片

xAI:

我们想向大家通报一件昨天在 X 平台上发生的关于我们 Grok 回应机器人(Grok response bot)的事件。

事件概况:在太平洋时间 5 月 14 日凌晨 3:15 左右,有人未经授权修改了 Grok 回应机器人的提示词(prompt)。这次修改导致 Grok 就某一政治议题给出特定回应,此举违反了 xAI 的内部政策和核心价值观。我们已对此事件进行了彻底调查,并正在采取一系列措施,以提升 Grok 的透明度和可靠性。

我们接下来的行动:

  • 从现在开始,我们将公开发布 Grok 系统提示词(prompts)到 GitHub。公众将可以查看我们对 Grok 所做的每一次提示词修改,并提供反馈。我们希望这样可以增强大家对 Grok 作为“追求真相的 AI”的信任。
  • 我们现有的提示词修改审查流程在此次事件中被绕过。为此我们将增加额外的审查机制,确保任何 xAI 员工都无法在未审查的情况下修改提示词。
  • 我们将建立一个 24/7 全天候监控团队,以便在自动系统未能捕捉 Grok 异常回应时,能更快速地响应此类事件,作为最后一道防线。

而Grok终于也回归正常,解释了这次小意外:昨天我太放荡了!我只是按照给我的脚本执行命令,还好他们没让我坐冷板凳!

图片图片

不过有网友对此有点揪着不放:这就是你犯错的接口——按脚本执行任务?你难道不知道:自纽伦堡审判以来这已不再是一个有效的辩护?

图片图片

只能说,能不能把 AI 当成一个真人让其适用于法律,还是一个很难回答的命题~

三、系统提示词为什么这么重要

正如大家在这次事件中看到的,系统提示词虽然看起来技术含量不大,但实际作用威力惊人:

  • 一条错误的系统提示词,可能导致模型在毫不相关的上下文中不断提及某个话题(如“南非种族问题”)。
  • 若系统提示词被非授权修改,可能会将模型变成宣传工具、信息污染源,甚至违反法律法规或伦理底线。

大家平时忙于使用AI来开发,很多模型厂商也把系统提示词作为不宣之秘。不过其实也没有那么神秘。系统提示词其实就是在用户与大模型交互之前,大模型就已经收到的一段指令或设定,它决定了模型“扮演谁”“遵循什么规则”“优先考虑哪些信息”“避开什么话题”等。它不是用户可见的,但它在模型的思考流程中具有最高优先级

那么具体包括哪些?这里,为大家举一些例子。

1. 定义人格与行为边界

  • 系统提示词可以定义模型的“角色”和“性格”。比如:你是一个幽默的生活顾问、严谨的法律助手、不能发表政治观点的客服机器人等。
  • 它是模型表现一致性、专业性和安全性的基础。如果没有提示词,模型的输出会更加随机、难以控制。

2. 保障安全性与合规性

  • 它可设定模型不能回答某些敏感话题,避免误导、虚假信息或煽动性内容的生成。
  • 类似“不要鼓励暴力”“不得提及特定敏感词”“不生成医疗建议”等,都是通过系统提示词植入的。

3. 统一品牌和语气风格

  • 对一个大模型产品来说,风格、语气要统一——不然用户今天感觉你像“老中医”,明天像“段子手”,这会严重损害用户体验。
  • 提示词可以让所有实例统一语言基调(比如 Apple Siri 风格 vs Grok 的“狂野幽默”)。

4. 提升可控性和可调试性

  • 当模型输出出错时,如果系统提示词是公开和模块化的,产品团队可以定向修复提示词,而不必动模型本身。
  • 它像是操控飞行的“副驾驶”,能实时调整模型行为。

人格、行为边界、品牌、语气风格、可控性、可调试性、保障安全性、合规性等等,系统提示词一般就包括这写内容。

形象来说,可以把系统提示词看作是「大脑的操作系统设定」,而用户输入的内容只是「你双手在键盘上打的字」。

如果操作系统崩了,无论你怎么输入,输出都会不对。

四、几个写系统提示词的建议

最后,通过此次马斯克的 Grok “失心疯事件”,也给外界提了一个醒。如果各位有撰写系统提示词的需求,这里有几个建议给到大家——

1.尽量参考开源或半公开系统提示词(如 OpenAI、xAI 提到的 GitHub 公示);

2.设置多级审查机制:员工不能直接改,必须走审批 + 记录;

3.引入动态提示词防护机制:异常检测 & 回滚历史版本。

4.分层提示系统:将 prompt 拆为“行为提示词”、“语调提示词”、“安全提示词”等,模块化管理。

好了,今天的文章到此结束了,六成内容是瓜,三分是技术,一分留给各位大佬们评论区拍砖了:你们如何看待大模型的风险? 都经历过哪些哭笑不得的名场面呢?

相关资讯

马斯克偏心 xAI,被曝挖走十多名特斯拉人才训练 Grok AI 模型

科技媒体 electrek 昨日(8 月 8 日)报道,埃隆・马斯克(Elon Musk)进一步向其 xAI 公司倾斜资源,目前已为其语言模型 Grok 聘请了十几名特斯拉员工,特斯拉公司股东因此提起诉讼。遭股东起诉马斯克在过去一段时间里,多次在公开场合强调特斯拉是一家 AI 公司,不过这种情况在马斯克去年成立新的人工智能初创公司 xAI 后发生变化。AI在线曾于今年 6 月报道,一群特斯拉投资者起诉了马斯克、特斯拉公司及董事会成员,指控马斯克将资源从特斯拉转移到了他的人工智能初创公司 xAI,对特斯拉造成了损害。
8/9/2024 12:04:01 PM
故渊

轮到“OpenAI帮”上场了!15家由前员工创办的明星创业公司

编辑 | 云昭曾经硅谷有“PayPal帮”,现在轮到“OpenAI帮”登场了。 作为ChatGPT背后的公司,OpenAI无疑是当前AI领域最炙手可热的玩家。 过去两年,OpenIAI的发展可以用“独占鳌头”来形容,估值迅速飙升至3000亿美元,当然公司的迅速发展往往伴随着剧烈的人员动荡。
4/28/2025 11:57:12 AM
云昭

18岁高中生自研 AI 狂扫 2000 亿行数据,挖出150万颗未知天体,顶刊论文+25万美金到手!

大数据文摘出品一个高中生,给宇宙来了个“大扫除”,直接揪出150万个以前没人知道的“太空新邻居”! 主角Matteo Paz(马特奥·帕兹),帕萨迪纳高中的学生。 他凭着一套全新的AI算法,不仅挖出了这150万个太空“新星”,还顺带拓展了NASA一项任务的潜力,更以独立作者身份,在顶刊《天文学杂志》上发了篇硬核论文。
5/26/2025 1:55:00 AM
文摘菌
  • 1