编辑 | 云昭
出品 | 51CTO技术栈(微信号:blog51cto)
拿下诺奖一年之后,AI奠基人、“AI教父”辛顿·杰弗里,却成了那个最担忧人工智能的人。
这位让神经网络走入现实的科学家,在刚刚放出的采访视频中再次以一种几乎绝望的语气告诉全人类:“我们正在亲手制造外星人。”
这些外星人不会从星空降临,而是从代码中诞生。十年后,它们或许比人类更聪明、更强大,而我们却还在忙着抢市场、卷融资、拼模型。
他表示,人工智能有朝一日可能会超越并压制其创造者。辛顿警告说,科技巨头的发展速度过快,需要全球合作,而且我们或许需要经历一次“切尔诺贝利时刻”才能真正重视这一危险。从大规模失业到失控,辛顿指出,人类的生存取决于我们现在的行动。
而在AI安全方面,辛顿对于Anthropic、Google DeepMind的研究进展表示认可,但点名批评了Meta和OpenAI。
我觉得Meta就不太负责任。
OpenAI当初成立的初衷是要负责任地发展AI,但现在每天都在变得更不负责任。他们最优秀的安全研究人员几乎都已经离开。
我认为Anthropic和Google还算关心安全,其他公司就差得多。
而对于中美之间的AI竞争,辛顿坦言:虽然美国略占优势,但中国会超过美国。
中国有大量聪明、竞争力强、受过良好理工教育的人才。中国在科学、工程、数学领域培养的人远远超过美国。而美国基本上靠移民支撑这些领域的智力资源。中国可能会超越美国。
对于上周美国巨头企业的裁员,辛顿也直截了当地表示:
我的担忧是,赚钱的最直接方式——除了收取聊天机器人使用费,就是替代人类劳动力。让公司更赚钱的方式,就是用更便宜的东西取代员工。
对于这次AI带来的失业潮,辛顿相当悲观:
如果你以前挖沟被取代,你还可以去做呼叫中心工作——但现在连这些工作也会消失。
1.我们正在亲自创造外星人
采访者:
这是一个关于“为最坏的情况做准备”的故事——也许,是我们所能想象到的最糟糕的情况。一年前,我们采访了计算机科学家杰弗里·辛顿,就在他因机器学习研究获得诺贝尔奖后的几天。自那以后,这位被称为“AI 之父”的科学家一直很忙——不是忙着开发人工智能,而是忙着警告人们。他说,我们都越来越意识到AI的风险,但光知道还不够,我们必须行动。
杰弗里·辛顿:
假设有一天,一架望远镜发现,一支外星入侵舰队将在十年后抵达地球,我们一定会恐惧,并立即采取行动。而现在,我们正处在这样的局面中——只是这次的“外星人”是我们自己造出来的。十年后,它们会出现,而且会比我们更聪明。我们必须认真思考,我们该如何与这些存在共存。
2.OpenAI、Meta都不太负责任,谷歌做得不错
采访者:
“共存”与“控制”,这正是辛顿自己一直深思的问题。作为现代人工智能的奠基人之一,他无疑最有资格思考AI的未来——以及是否有人能够塑造它。有没有哪家公司真的在做AI安全方面的工作?比如我们听说过的Anthropic、DeepMind,它们在安全上有帮助吗?
杰弗里·辛顿:
是的,我认为Dario Amodei、Demis Hassabis,还有Jeff Dean都相当认真地看待AI安全。当然,他们也深陷激烈的商业竞争,这确实很难平衡。但他们都明白,这是一种“存在性威胁”——当AI变得足够聪明时,它可能会直接取代人类。他们对此是有担忧的。不过有些公司就没那么负责任。比如,我觉得Meta就不太负责任。OpenAI当初成立的初衷是要负责任地发展AI,但现在每天都在变得更不负责任。他们最优秀的安全研究人员几乎都已经离开。我认为Anthropic和Google还算关心安全,其他公司就差得多。
3.CEO们对安全不上心:只关心竞争是错误的思考模式
采访者:
我和这些公司的人聊起安全问题时,他们常会说:“别担心,我们有最顶尖的计算机科学家,他们完全掌控得住。离真正的危险还远着呢。”他们更在意的是争夺主导地位的竞赛。
杰弗里·辛顿:
是的,这正是问题所在。他们更关心竞争,而不是人类能否在这场竞赛中幸存下来——或者社会能否承受大规模失业。唯一的好消息是,所有国家至少在一件事上是一致的:没有人希望AI取代人类。各国可能在网络攻击或自主武器上存在冲突,但在“阻止AI接管人类”这件事上,他们会合作。各国都不希望AI接管,包括美国。大家都不想那样。问题是:即便各国都合作了,该如何阻止AI接管?我认为,目前各大公司和政府都采用了错误的模式。
他们普遍的心态是:我是CEO,而那个超级智能AI只是个非常聪明的执行助理。我是老板,她听我指令,不听话我就解雇她。我只需要说“去做吧”(就像《星际迷航》里那样),AI就能帮我搞定,然后功劳算在我头上。但事实不会如此——当它比我们更聪明、更有力量时,这种模式完全行不通。我们需要思考,有没有任何现实中“智力更低的东西”能有效控制“智力更高的东西”?只有一个例子:婴儿控制母亲。进化花了巨大的努力,让婴儿能够影响母亲——母亲常常比关心自己更关心孩子。这在兔子身上不成立,但在人类身上成立。这似乎更像是人类与超级智能共存的合理模型。但我们必须接受一个事实:我们是婴儿,它们是母亲——只希望它们不是那种“犹太母亲”。你可以想象,那些科技大佬绝不会接受这种模式,他们根本不是那样思考世界的。
4.美国攻击大学和基础研究,只会让中国超越美国
采访者:
美国在生成式AI的研发上是否已经落后于中国?
杰弗里·辛顿:
还没有。美国目前仍略占优势,但优势没他们想象的那么大。中国有大量聪明、竞争力强、受过良好理工教育的人才。中国在科学、工程、数学领域培养的人远远超过美国。而美国基本上靠移民支撑这些领域的智力资源。中国可能会超越美国。如果你是中国,想确保这一点,最聪明的做法就是——切断美国的基础科研经费,削弱它的研究型大学。实际上,特朗普攻击大学和基础科研经费的做法,更像是在替中国办事。
采访者:
这种损害有多深?这不仅是研究经费的问题,还有海外移民人才流入的影响。这种伤害多深?多久能感受到?
杰弗里·辛顿:
攻击基础研究的后果不是立刻显现的,通常要10到20年后才会真正感受到。那时候你会发现,这么做其实是阻止了新的概念性突破在美国发生。到那时,中国会遥遥领先。
5.AI浪潮的核心动因:老板想赚钱,希望让更便宜的东西取代员工
采访者:
不管谁在AI竞赛中领先,你都说过过去一年风险在上升——尤其对普通工人来说。本周亚马逊宣布裁员4%,部分原因可能正是AI投资让它“有能力”这么做。自我们上次对话以来,大量资金涌入AI领域,总额可能以万亿美元计。这些钱究竟花在了哪里?最终能惠及谁?
杰弗里·辛顿:
这些都是由极为严肃的商业人士掌舵的大公司,他们不会在没有回报预期的情况下砸钱进去。当然,也有点虚荣心——他们想第一个实现突破,即便这可能毁掉我们所有人。但他们确实相信这里能赚钱。我的担忧是,赚钱的最直接方式——除了收取聊天机器人使用费——就是替代人类劳动力。让公司更赚钱的方式,就是用更便宜的东西取代员工。我认为,这正是推动这场AI浪潮的核心动因之一。
采访者:
最终这是不是一个“赢家通吃”的局面?
杰弗里·辛顿:
我不确定。这是一个前所未有的领域。我们从未拥有过“几乎和我们一样聪明的东西”(而现在已经有了),也从未面对“比我们更聪明的东西”(而那即将到来)。工业革命期间,我们有比人更强大的机器,比如蒸汽机比马力更大,但我们仍然能控制它。而这次不同。如果你以前挖沟被取代,你还可以去做呼叫中心工作——但现在连这些工作也会消失。人们将去往何方?有些经济学家说,每次技术革命都会创造新工作,但我并不确定这次会如此。我认为大公司正在押注AI带来大规模失业,因为那才是利润的来源。
采访者:
有人说,历史上新技术摧毁旧岗位的同时也创造新岗位,总体上就业不减反增。但你认为这次不同。那AI的万亿投资能否在不摧毁就业的情况下获得回报?
杰弗里·辛顿:
我认为不可能。想赚钱,就必须替代人类劳动。
6.马斯克会变得更富,很多人会失业
采访者:
面对AI对工人、经济乃至整个人类的威胁,你是否后悔自己在创造它的过程中扮演的角色?我们问了ChatGPT,它会如何描述与您的关系。它说:“如果我是一片成熟的雨林,辛顿就是那个播下种子并教会人们如何浇灌它的人。”那你觉得,这一切值得吗?
杰弗里·辛顿:
这是个很难的问题。这不像核武器,核武器只有坏的用途。而AI能带来巨大的好处——比如在医疗、教育和生产力上的革命性提升。问题的根源不在AI,而在社会组织方式上——比如,马斯克会变得更富,而很多人失业,马斯克并不会在意。我只是拿他作个例子。这不是AI的问题,而是社会结构的问题。
7.警醒AI版切尔贝利、古巴导弹危机
采访者:
在过去一年,经济和股市的增长几乎都由AI投资驱动。即便公众越来越担心AI风险,他们可能也会说:“等等,这可是推动经济的引擎,我们不能放弃它。”你怎么看?
杰弗里·辛顿:
有人说,我们唯一的希望,是让AI尝试接管但失败——换句话说,我们需要一次能真正吓醒人类的事故,比如AI版的“切尔诺贝利”。
ps:切尔诺贝利(Chernobyl)指的是1986年4月26日,苏联乌克兰的切尔诺贝利核电站发生的一场史上最严重的核灾难。这场事故导致核反应堆爆炸,大量放射性物质泄漏,污染了半个欧洲,直接和间接导致上万人死亡,也让全球开始重新反思核能的安全。
采访者:
或者像“古巴导弹危机”?
杰弗里·辛顿:
是的,类似那样的事件,能制造“紧迫感”。古巴导弹危机让人们开始认真对待核裁军。我们现在也需要那样的危机,让公众真正关注、投入资源。现在的大公司不可能拿出三分之一的力量研究AI安全——但如果有一天,AI真的尝试接管、但差点失败了——也许,那时候他们就会开始认真对待。