AI在线 AI在线

诺奖一年后,AI奠基人辛顿再发警告:中国十年后会超越美国;人类在亲自制造外星人;AI带来大规模失业潮将失控,需切尔诺贝利时刻警醒

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)拿下诺奖一年之后,AI奠基人、“AI教父”辛顿·杰弗里,却成了那个最担忧人工智能的人。 这位让神经网络走入现实的科学家,在刚刚放出的采访视频中再次以一种几乎绝望的语气告诉全人类:“我们正在亲手制造外星人。 ”这些外星人不会从星空降临,而是从代码中诞生。

编辑 | 云昭

出品 | 51CTO技术栈(微信号:blog51cto)

拿下诺奖一年之后,AI奠基人、“AI教父”辛顿·杰弗里,却成了那个最担忧人工智能的人。

这位让神经网络走入现实的科学家,在刚刚放出的采访视频中再次以一种几乎绝望的语气告诉全人类:“我们正在亲手制造外星人。”

这些外星人不会从星空降临,而是从代码中诞生。十年后,它们或许比人类更聪明、更强大,而我们却还在忙着抢市场、卷融资、拼模型。

他表示,人工智能有朝一日可能会超越并压制其创造者。辛顿警告说,科技巨头的发展速度过快,需要全球合作,而且我们或许需要经历一次“切尔诺贝利时刻”才能真正重视这一危险。从大规模失业到失控,辛顿指出,人类的生存取决于我们现在的行动。

而在AI安全方面,辛顿对于Anthropic、Google DeepMind的研究进展表示认可,但点名批评了Meta和OpenAI。

我觉得Meta就不太负责任。

OpenAI当初成立的初衷是要负责任地发展AI,但现在每天都在变得更不负责任。他们最优秀的安全研究人员几乎都已经离开。

我认为Anthropic和Google还算关心安全,其他公司就差得多。

而对于中美之间的AI竞争,辛顿坦言:虽然美国略占优势,但中国会超过美国。

中国有大量聪明、竞争力强、受过良好理工教育的人才。中国在科学、工程、数学领域培养的人远远超过美国。而美国基本上靠移民支撑这些领域的智力资源。中国可能会超越美国。

对于上周美国巨头企业的裁员,辛顿也直截了当地表示:

我的担忧是,赚钱的最直接方式——除了收取聊天机器人使用费,就是替代人类劳动力。让公司更赚钱的方式,就是用更便宜的东西取代员工。

对于这次AI带来的失业潮,辛顿相当悲观:

如果你以前挖沟被取代,你还可以去做呼叫中心工作——但现在连这些工作也会消失。

1.我们正在亲自创造外星人

采访者: 

这是一个关于“为最坏的情况做准备”的故事——也许,是我们所能想象到的最糟糕的情况。一年前,我们采访了计算机科学家杰弗里·辛顿,就在他因机器学习研究获得诺贝尔奖后的几天。自那以后,这位被称为“AI 之父”的科学家一直很忙——不是忙着开发人工智能,而是忙着警告人们。他说,我们都越来越意识到AI的风险,但光知道还不够,我们必须行动。

杰弗里·辛顿: 

假设有一天,一架望远镜发现,一支外星入侵舰队将在十年后抵达地球,我们一定会恐惧,并立即采取行动。而现在,我们正处在这样的局面中——只是这次的“外星人”是我们自己造出来的。十年后,它们会出现,而且会比我们更聪明。我们必须认真思考,我们该如何与这些存在共存。

2.OpenAI、Meta都不太负责任,谷歌做得不错

采访者: 

“共存”与“控制”,这正是辛顿自己一直深思的问题。作为现代人工智能的奠基人之一,他无疑最有资格思考AI的未来——以及是否有人能够塑造它。有没有哪家公司真的在做AI安全方面的工作?比如我们听说过的Anthropic、DeepMind,它们在安全上有帮助吗?

杰弗里·辛顿: 

是的,我认为Dario Amodei、Demis Hassabis,还有Jeff Dean都相当认真地看待AI安全。当然,他们也深陷激烈的商业竞争,这确实很难平衡。但他们都明白,这是一种“存在性威胁”——当AI变得足够聪明时,它可能会直接取代人类。他们对此是有担忧的。不过有些公司就没那么负责任。比如,我觉得Meta就不太负责任。OpenAI当初成立的初衷是要负责任地发展AI,但现在每天都在变得更不负责任。他们最优秀的安全研究人员几乎都已经离开。我认为Anthropic和Google还算关心安全,其他公司就差得多。

3.CEO们对安全不上心:只关心竞争是错误的思考模式

采访者: 

我和这些公司的人聊起安全问题时,他们常会说:“别担心,我们有最顶尖的计算机科学家,他们完全掌控得住。离真正的危险还远着呢。”他们更在意的是争夺主导地位的竞赛。

杰弗里·辛顿: 

是的,这正是问题所在。他们更关心竞争,而不是人类能否在这场竞赛中幸存下来——或者社会能否承受大规模失业。唯一的好消息是,所有国家至少在一件事上是一致的:没有人希望AI取代人类。各国可能在网络攻击或自主武器上存在冲突,但在“阻止AI接管人类”这件事上,他们会合作。各国都不希望AI接管,包括美国。大家都不想那样。问题是:即便各国都合作了,该如何阻止AI接管?我认为,目前各大公司和政府都采用了错误的模式。

他们普遍的心态是:我是CEO,而那个超级智能AI只是个非常聪明的执行助理。我是老板,她听我指令,不听话我就解雇她。我只需要说“去做吧”(就像《星际迷航》里那样),AI就能帮我搞定,然后功劳算在我头上。但事实不会如此——当它比我们更聪明、更有力量时,这种模式完全行不通。我们需要思考,有没有任何现实中“智力更低的东西”能有效控制“智力更高的东西”?只有一个例子:婴儿控制母亲。进化花了巨大的努力,让婴儿能够影响母亲——母亲常常比关心自己更关心孩子。这在兔子身上不成立,但在人类身上成立。这似乎更像是人类与超级智能共存的合理模型。但我们必须接受一个事实:我们是婴儿,它们是母亲——只希望它们不是那种“犹太母亲”。你可以想象,那些科技大佬绝不会接受这种模式,他们根本不是那样思考世界的。

4.美国攻击大学和基础研究,只会让中国超越美国

采访者: 

美国在生成式AI的研发上是否已经落后于中国?

杰弗里·辛顿: 

还没有。美国目前仍略占优势,但优势没他们想象的那么大。中国有大量聪明、竞争力强、受过良好理工教育的人才。中国在科学、工程、数学领域培养的人远远超过美国。而美国基本上靠移民支撑这些领域的智力资源。中国可能会超越美国。如果你是中国,想确保这一点,最聪明的做法就是——切断美国的基础科研经费,削弱它的研究型大学。实际上,特朗普攻击大学和基础科研经费的做法,更像是在替中国办事。

采访者: 

这种损害有多深?这不仅是研究经费的问题,还有海外移民人才流入的影响。这种伤害多深?多久能感受到?

杰弗里·辛顿: 

攻击基础研究的后果不是立刻显现的,通常要10到20年后才会真正感受到。那时候你会发现,这么做其实是阻止了新的概念性突破在美国发生。到那时,中国会遥遥领先。

5.AI浪潮的核心动因:老板想赚钱,希望让更便宜的东西取代员工

采访者: 

不管谁在AI竞赛中领先,你都说过过去一年风险在上升——尤其对普通工人来说。本周亚马逊宣布裁员4%,部分原因可能正是AI投资让它“有能力”这么做。自我们上次对话以来,大量资金涌入AI领域,总额可能以万亿美元计。这些钱究竟花在了哪里?最终能惠及谁?

杰弗里·辛顿: 

这些都是由极为严肃的商业人士掌舵的大公司,他们不会在没有回报预期的情况下砸钱进去。当然,也有点虚荣心——他们想第一个实现突破,即便这可能毁掉我们所有人。但他们确实相信这里能赚钱。我的担忧是,赚钱的最直接方式——除了收取聊天机器人使用费——就是替代人类劳动力。让公司更赚钱的方式,就是用更便宜的东西取代员工。我认为,这正是推动这场AI浪潮的核心动因之一。

采访者: 

最终这是不是一个“赢家通吃”的局面?

杰弗里·辛顿: 

我不确定。这是一个前所未有的领域。我们从未拥有过“几乎和我们一样聪明的东西”(而现在已经有了),也从未面对“比我们更聪明的东西”(而那即将到来)。工业革命期间,我们有比人更强大的机器,比如蒸汽机比马力更大,但我们仍然能控制它。而这次不同。如果你以前挖沟被取代,你还可以去做呼叫中心工作——但现在连这些工作也会消失。人们将去往何方?有些经济学家说,每次技术革命都会创造新工作,但我并不确定这次会如此。我认为大公司正在押注AI带来大规模失业,因为那才是利润的来源。

采访者: 

有人说,历史上新技术摧毁旧岗位的同时也创造新岗位,总体上就业不减反增。但你认为这次不同。那AI的万亿投资能否在不摧毁就业的情况下获得回报?

杰弗里·辛顿: 

我认为不可能。想赚钱,就必须替代人类劳动。

6.马斯克会变得更富,很多人会失业

采访者: 

面对AI对工人、经济乃至整个人类的威胁,你是否后悔自己在创造它的过程中扮演的角色?我们问了ChatGPT,它会如何描述与您的关系。它说:“如果我是一片成熟的雨林,辛顿就是那个播下种子并教会人们如何浇灌它的人。”那你觉得,这一切值得吗?

杰弗里·辛顿: 

这是个很难的问题。这不像核武器,核武器只有坏的用途。而AI能带来巨大的好处——比如在医疗、教育和生产力上的革命性提升。问题的根源不在AI,而在社会组织方式上——比如,马斯克会变得更富,而很多人失业,马斯克并不会在意。我只是拿他作个例子。这不是AI的问题,而是社会结构的问题。

7.警醒AI版切尔贝利、古巴导弹危机

采访者: 

在过去一年,经济和股市的增长几乎都由AI投资驱动。即便公众越来越担心AI风险,他们可能也会说:“等等,这可是推动经济的引擎,我们不能放弃它。”你怎么看?

杰弗里·辛顿: 

有人说,我们唯一的希望,是让AI尝试接管但失败——换句话说,我们需要一次能真正吓醒人类的事故,比如AI版的“切尔诺贝利”。

ps:切尔诺贝利(Chernobyl)指的是1986年4月26日,苏联乌克兰的切尔诺贝利核电站发生的一场史上最严重的核灾难。这场事故导致核反应堆爆炸,大量放射性物质泄漏,污染了半个欧洲,直接和间接导致上万人死亡,也让全球开始重新反思核能的安全。

采访者: 

或者像“古巴导弹危机”?

杰弗里·辛顿:

是的,类似那样的事件,能制造“紧迫感”。古巴导弹危机让人们开始认真对待核裁军。我们现在也需要那样的危机,让公众真正关注、投入资源。现在的大公司不可能拿出三分之一的力量研究AI安全——但如果有一天,AI真的尝试接管、但差点失败了——也许,那时候他们就会开始认真对待。

相关资讯

​超过 70% 美国民众对 AI 的未来忧虑:就业与人际关系面临挑战

随着人工智能技术的迅速发展,各大科技公司频频宣称其工具将彻底改变世界,提高工作效率,减少枯燥劳动。 然而,一项最新的调查显示,超过七成的美国人对这一技术表示担忧,认为人工智能可能导致大量永久失业。 自从2023年 ChatGPT 爆火以来,关于生成式人工智能的讨论愈发热烈,有专家警告说,这场革命将引发自工业革命以来前所未有的失业潮。
8/20/2025 10:06:00 AM
AI在线

OpenAI们都错了!AI教父辛顿再发警告:控制AI是妄想!必须让AI成为“母亲”,学会主动关心人类!李飞飞当场反驳:构想不对!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)人类试图控制AI的方式犯了本质错误! 昨日,“AI教父”辛顿(Geoffrey Hinton)在Ai4 行业大会上的发言再次掀起热议。 这位曾警告“AI消灭人类的概率在10%到20%之间”的人工智能先驱,这次把矛头直接对准科技巨头——他质疑,那些试图让人类在所谓“顺从”的AI面前维持“主导地位”的做法,根本行不通。
8/14/2025 3:42:55 PM
伊风

“AI 教父”杰弗里・辛顿:超越人类智慧的 AI 可用语言操纵我们

感谢人工智能领域的开创者之一,被誉为“AI 教父”的杰弗里・辛顿(Geoffrey Hinton)近日接受日本经济新闻采访,讲述了 AI 与人类的未来。IT之家注:去年 5 月,杰弗里・辛顿宣布离开他工作了十年的谷歌公司,原因是他对人工智能技术的发展越来越担忧。谈到当初从谷歌离职的原因时,辛顿称希望自己离职后能够“自由地传播”自己相信的东西。去年 4 月,他曾与自己的上司 —— 首席科学家杰夫・迪恩(Jeff Dean)交谈,自己提出了 AI 有可能带来事关人类生存危机的看法。迪恩试图挽留辛顿,并提议留在谷歌研究
3/24/2024 3:20:14 PM
清源