AI在线 AI在线

开源AI是个伪概念!Claude之父语出惊人:DS是否开源都不影响我们的商业价值!不惧“年亏30亿”:做前沿模型就像风投

出品 | 51CTO技术栈(微信号:blog51cto)硅谷很少有播客,比Anthropic CEO Dario更具戏剧性了。 他的发言之犀利,让人听得直冒冷汗——他谈和黄仁勋的不合,直言奥特曼做AI的使命“不够真诚”,不看好Meta的AI路线,甚至主动提起了马斯克的Grok前阵子的政治翻车事件。 不到一个小时,分分钟就把硅谷大半圈的人都“得罪”了个遍。

出品 | 51CTO技术栈(微信号:blog51cto)

硅谷很少有播客,比Anthropic CEO Dario更具戏剧性了。

他的发言之犀利,让人听得直冒冷汗——

他谈和黄仁勋的不合,直言奥特曼做AI的使命“不够真诚”,不看好Meta的AI路线,甚至主动提起了马斯克的Grok前阵子的政治翻车事件。

不到一个小时,分分钟就把硅谷大半圈的人都“得罪”了个遍。

但也正是这种毫不掩饰的直率,让这场访谈比以往更有火药味,也更有深度。

谈到AI的未来,Dario依然语出惊人:“再过几年,AI将成为全球最大收入来源,成为最大的产业。而企业家们早已看见这一趋势。”

开源AI是个伪概念!Claude之父语出惊人:DS是否开源都不影响我们的商业价值!不惧“年亏30亿”:做前沿模型就像风投

这场播客中最让小编惊喜的还是,Dario首次在公开场合详细剖析了AI公司的真实商业模式

众所周知,无论是 OpenAI 还是 Anthropic,看起来风光无限,其实每年亏损几十亿美元。

主持人更是当场逼问:“Claude Code的重度用户让你们亏钱?200美元订阅Max Tier,却相当于获得了6000美元API额度的使用权(注:不过,Max目前已经新增了限额)?

据说你们今年还要亏30亿?”

Dario则抛出一个全新的视角:

 “把每个模型看作一个风险投资项目——比如我投入1亿美元,第二年赚回2亿,那这个模型就是盈利的。再下一代模型,投入10亿赚回20亿,也是赚钱的。只是我们每年都在不断投资新模型,所以账面上看起来在亏钱。” 

 “这不一定是 Anthropic 的财务数据,但这是整个行业的动态机制。一旦某年停止投入训练新模型,公司就能开始盈利。”

然后Dario又表示,开源AI就是一个伪概念,开源再先进,也不会削弱Anthropic的商业价值。

因为——“AI领域的开源,并不等同于软件领域的开源。你无法“看见”模型内部发生了什么——你能看到的是模型的权重(open weights),不是源代码(source code),两者是有本质区别的。开源带来的“共建、协同、可复用”这些优势,在AI领域并没有那么强。”

所以Dario说:

我不在意 DeepSeek是否开源,我只关心它是不是一个好模型,它在哪些任务上胜过我们,这才是我唯一在意的。

最后,他还揭秘了,为什么 Anthropic 更看重 To B,而 OpenAI 更倾向 To C

 “我们认为:AI在企业和专业领域的应用最终可能会超过C端应用。 我说的‘商业用户’不仅是大公司,还包括创业者、开发者、那些为了提高生产力而使用AI的专业用户。

只有做商业应用,才能更好地激励我们把模型做得更好。普通消费者也许根本不在意模型从本科生进化到博士生,但像辉瑞这样的公司,绝对愿意为此多付10倍的钱。 ”

整场访谈信息量极高,观点鲜明,每个关注AI圈的人都值得一看

以下是经过整理的访谈全文,Enjoy:

AI还在指数级增长,上半年Anthropic营收飙至45亿

主持人 

Anthropic CEO Dario Amodei 今天来到我们节目,来聊聊AI的未来发展路径,生成式AI到底是不是一个好生意,还有他如何回应那些叫他“doomer”(末世论者)的人。他现在就在旧金山的Anthropic总部和我们面对面交流。Dario,很高兴再次见到你,欢迎做客节目。

Dario 

谢谢你们邀请我。

主持人 

那我们先来回顾一下你这几个月的动作吧:你说AI可能会淘汰一半的初级白领岗位;你切断了Windsurf对Anthropic高阶模型的访问权限;在得知OpenAI要收购他们之后,你向政府请求实施出口管制;你还惹怒了英伟达CEO黄仁勋。你这是怎么了?

Dario 

我觉得我本人和Anthropic一直都是在坚持做和说我们认为正确的事情。随着我们越来越接近更强大的AI系统,我开始更明确、更公开地表达这些观点,让大家意识到问题的严峻性。我这几年一直在谈“扩展法则(scaling laws)”——

AI系统的能力正在增强。几年前,它们还基本不连贯;前几年,也就是个聪明的高中生水平;现在,则已经接近大学生甚至博士生的程度。而且它们已经开始在经济中逐步落地。所以,AI相关的一系列问题——无论是国家安全还是经济结构——都变得迫在眉睫。虽然Anthropic早就提过这些问题,但现在它们已经从远景变成了现实,紧迫性显著上升。

我希望我们能够清楚地说出我们的判断,提醒全世界这些潜在的风险。当然,没有人能准确预测未来会发生什么。但我们愿意分享我们认为可能或很可能发生的情况,并尽可能地提供论据支持,哪怕这些判断涉及对未来的外推。我觉得我们有责任提醒世界这些事。

我其实非常认可AI的正面价值。我写过一篇文章叫《充满爱意的机器(Machines of Loving Grace)》,在里面表达了我对AI积极用途的期待。事实上,我和Anthropic可能比那些自称“乐观主义者”或“加速主义者”的人还更能清楚表达AI的潜力。也正因为我们看到了AI可能带来的美好未来,我们才更有责任去警示它的风险。

主持人 

所以说你之所以这么着急发声,是因为你觉得AI的问题已经迫在眼前了?

Dario

是的,不过这种“紧迫”主要还是技术层面的。社会层面就比较难预测了,比如说AI什么时候会大规模部署?企业何时会花多少钱来用AI?哪些医疗突破是AI驱动的?这些都不好说。

 但从底层技术来看,我的判断就比较确定了,虽然也不是百分百确定。技术的指数增长趋势仍可能在未来两年突然停滞,也许是我们没想到的原因,也可能是像数据、算力这些现实问题导致的。要是真那样,我之前说的预警都会显得很可笑,大家可能会嘲笑我。但即便如此,我也完全接受这样的结果,因为我只是根据我看到的分布来判断的。

主持人 

你在所有AI实验室领导人里,可能是对“时间线”最紧迫的那个。你刚才也再次提到这点了——那你为什么会有这么短的时间线?我们又凭什么相信你的判断?

Dario 

这其实得看你怎么定义“时间线”。有一个点我一直都在强调——AI圈里喜欢说“AGI(通用人工智能)”、“超级智能”这些词。你常能听到某家公司说我们已经实现AGI了,接下来要做超级智能了,或者某个人从AGI转去研究superintelligence了。这些词对我来说根本没意义。我不知道AGI或超级智能具体指什么,它们更像是营销术语,像是用来刺激大家多巴胺的说法。所以你可以注意到我从不在公开场合使用这些词,甚至会批评这些词的使用。但话说回来,我确实是少数几个非常看好AI能力迅速提升的人之一。

我真正相信的是“指数曲线”:我们每隔几个月就能看到一个比上一个更强的模型。这是通过更高的算力投入、更丰富的数据、更先进的训练方法实现的。

最初我们靠的是所谓“预训练”——用大量互联网数据喂模型;现在则进入了第二阶段,包括强化学习、推理、以及测试时计算等等。我把它们统称为“第二阶段训练”。这两个阶段现在是一起扩展的——从我们和其他公司发布的模型都可以看出这一点。而我没看到这个趋势有被阻断的迹象。现在的关键是如何进一步扩展这些训练任务的范围,特别是在RL(强化学习)这一侧。

我们目前在数学和编程等领域看到的进展更显著,这些模型的能力已经接近高水平专业人士;而在一些更主观的任务上进展则稍慢。但我认为这只是暂时的障碍。从整体趋势来看,我看到的是一个指数型增长。我们知道人类其实很难直觉地理解指数增长。

如果某项能力每六个月翻一倍,那么它在实现目标前两年可能看起来才完成了1/16。现在是2025年年中,模型的能力正在以爆炸性速度开始渗透经济。如果你看模型的表现,它们在各类评测中已经趋于饱和。

如果你看营收情况,比如Anthropic的营收,每年都以10倍的速度增长。虽然我们一直比较保守,说“这次可能不会再涨这么多了”。我从不预设什么,也总是很保守地预测未来增速会放缓。

但实际上,从商业角度看:我们2023年的收入是从0增长到1亿美元,2024年是从1亿增长到10亿美元。今年,仅仅是上半年,我们就从10亿增长到现在已经超过40亿——可能是45亿。

所以你可以想象,如果这种指数趋势再持续两年——我不是说一定会,但如果真的持续下去,我们就会进入几千亿美元级别。我不是说它一定会发生,而是说当你处于一个指数增长阶段时,在真正爆发前两年,情况看上去可能还“像是刚开始”。

这正是指数增长的基本特性。

90年代互联网的发展就是这样。当时网络传输速度和底层计算能力飞快提升,几年内就变得可能在全球范围内搭建一个数字通信网络,而在这之前根本不可想象。除了极少数人,几乎没人意识到这种变化会来得如此之快、影响如此之深。我现在的判断也类似。

当然,也可能有突发情况,比如一堆卫星坠毁了,互联网的发展也许就会拖慢;又或者经济崩盘,也可能延迟一点。我们永远无法精确预测时间线,但我认为现在很多人正被这个“指数”蒙蔽,没意识到它到底有多快——而我认为,它可能真的会很快。

模型撞墙了吗,更大规模模型是否有必要?

主持人 

不过,现在AI业内很多人都在谈“扩展遇到瓶颈”,说规模越大收益越少。你刚刚描绘的场景,似乎与这一观点完全相悖——他们是不是错了?

Dario 

嗯,我只能以Anthropic的模型为例来谈。在我们看到的情况中——比如编程,是我们模型进展最快的领域之一,用户采用速度也非常快。我们不是一家只做编程的公司,但如果你看编程,我们发布了Claude 3.5 Sonnet、3.5 Sonnet V2(姑且叫它3.6)、然后是3.7 Sonnet,接着是4.0 Sonnet 和 4.0 Opus。这一系列四五款模型,每一代在编程能力上都有明显提升。

如果你看具体的基准测试,比如 sweep benchmark,它在18个月前的通过率可能还只有3%左右,而现在已经提升到72%甚至80%,具体取决于你用什么标准来衡量。实际使用量也在指数级增长。我们正在接近一个阶段,模型几乎可以自主完成大部分编程任务。以我们公司为例,现在Anthropic的大多数代码都是由Claude系列模型直接生成,或在其协助下完成的。其他一些公司也说过类似的事情。我们看到的,是快速的进展和持续的指数趋势,并未发现“收益递减”的现象。

主持人

但大语言模型也存在一些明显的问题。比如“持续学习”(continual learning)这一块,最近我们请了 Dwarkesh Patel 来节目,他在 Substack 里也写了这方面的问题。他的观点是:模型无法持续学习,这是一个巨大的问题。虽然在很多测试中语言模型的表现超过了人类平均水平,但它们的能力是固定的——模型一旦训练完成,就不会再学习了。这听起来像是一个非常明显的短板。

Dario

你怎么看这个问题?首先我想说,即使我们永远无法解决“持续学习(continual learning)”和“记忆”的问题,我认为大语言模型(LLMs)仍然有非常大的潜力,能在整个经济层面带来深远影响。

 我以前是做生物医学的。设想一下:如果我有一位非常聪明的诺贝尔奖获得者,但他不能读新教材、不能吸收任何新知识——这当然是个限制。但如果我有一千万个这样的人,他们依然能在生物学上取得大量突破。他们会有局限,但也会做出很多人类做不到的事情。当然也有些事人类能做他们不能做。但即便在这种被限制的情况下,他们的表现依然是令人惊叹的、颠覆性的。就算永远无法解决这个问题,我觉得人们还是低估了这些模型的影响力。更何况,现在模型的上下文窗口(context window)越来越大了,它们实际上在这个窗口内是可以“学习”的。

比如说,我和模型进行一段对话,它在这个上下文中能吸收信息。虽然模型的底层权重不会改变,但就像我现在在和你交流、听你说话、回应你的观点,模型也能做到这一点。

从机器学习的角度来看,现在技术上完全可以实现一个拥有上亿词长上下文的模型——这大约相当于一个人一生中听到的总词量。这主要是推理时的技术支持问题,而不是原则性障碍。所以,虽然不能解决所有问题,但上下文窗口的扩大已经能弥补很多问题。除此之外,还有一些学习与记忆的方法确实能实现权重的更新。

例如,我们可以用各种类型的强化学习(RL)方式进行训练。多年前我们常讨论“内循环(inner loop)”与“外循环(outer loop)”。内循环指的是模型在一个情境中进行学习,并尝试优化该情境下的表现;而外循环则指模型在多个情境之间逐步学习。所以这个结构或许可以成为实现持续学习的一种方式。

AI领域的经验告诉我们:那些一开始看上去像是“根本性障碍”的问题,后来往往没那么难。比如两年前大家以为推理能力是个巨大难题,结果我们只是用了RL(强化学习)来训练模型,让它自己写点内容、试着解数学题,结果能力就上来了。所以我觉得,我们可能已经看到一些证据,表明“持续学习”可能也是一个最终可以通过“规模化+方法创新”解决的问题。

主持人

你有没有想过:你对“规模化”的执念可能会让你忽视某些新的技术路径?Demis 和 Saba(注:分别是DeepMind和Inflection AI的CEO)都提过,要实现AGI或者“超级强大的AGI”(无论叫什么),可能需要一些全新的技术路线。你对此怎么看?

Dario 

我们每天都在开发新技术。Claude 现在非常擅长写代码,但我们其实很少在公开场合谈论为什么 Claude 代码能力这么强。

主持人 

那为什么它这么强?

Dario

就像我说的,我们不公开谈这些细节。不过可以说,每一个Claude的新版本,都会在架构、训练数据、训练方法等方面有新的改进。我们一直在开发新技术。新技术是每一代模型的一部分。这也是为什么我一直在强调“人才密度”这么重要——你需要足够多优秀的人才,才能持续发明出这些新方法。

主持人 

但在整个对话过程中有一个悬而未决的问题——Anthropic可能确实有正确的理念,但资源是否够呢?比如Elon的xAI建立了巨型算力集群,Mark Zuckerberg 在建5GW的数据中心,投入资源非常之多。虽然Anthropic也融资数十亿美元,但你面对的是万亿市值的巨头。

Dario 

我们目前为止已经融资将近200亿美元——这可不是小数目。

主持人 

确实不小。

Dario

而且如果你看看我们与亚马逊合作所建设的数据中心规模,我认为我们的基础设施扩张并不比业内其他公司小。在很多情况下,限制并不在资金,而在于能源与基础建设周期。那些看起来“动辄几百亿美元”的投入,其实是跨越好几年的承诺,很多时候这些项目甚至还未真正启动。我们清楚业内大家都在建设什么样的数据中心,而我们相信,我们会处于相似的数量级。

谈扎克伯格挖人:金钱买不到使命认同,不看好Meta的未来

主持人 

你刚才提到了“人才密度”。那你怎么看Mark Zuckerberg在人才招募方面的动作?他把这一点和大规模数据中心结合起来,好像已经具备了直接竞争的实力?

Dario

这其实是一个很有意思的话题。我们发现,相比其他公司,从Anthropic被挖走的人要少得多。

并不是因为没有人来挖。我和很多收到其他公司Offer的员工都聊过,其中一些人甚至根本不愿意和扎克伯格谈话,他们直接拒绝了,说“我会继续留在Anthropic”。我们对此的整体回应是这样的:我在公司Slack群发了一条信息说——我们不会为了回应个别挖角而去破坏我们的薪酬体系和公平原则。

在Anthropic,我们采用的是分级制度。候选人入职时会被评定为某个等级,我们不对等级进行谈判,因为我们认为那样不公平。我们希望以系统化方式对待每个人。不能因为扎克伯格随手掷飞镖刚好选中了你,你就能比你身边同样优秀的人多拿10倍薪水。在我看来,唯一能真正伤害公司的方式,就是因为恐慌而破坏公司的文化,用不公平的方式去“保人”。而我们没有这样做,我们坚持了自己的原则,也因此更团结,因为我们相信——Anthropic的人,是因为认同使命才留下来的。

我认为Meta等公司在做的,是试图“买到”一些其实买不到的东西——那就是对使命的认同。我们这里有一种“选择效应”:留下来的,往往是那些最有热情、最相信我们使命的人。

主持人 

但他们有人才,也有GPU。你不会低估他们吧?

Dario 

拭目以待吧。我对他们正在做的事情,整体是偏悲观的。

“我们是是历史上成长最快的软件公司之一”,看好To B而非To C

主持人 

那我们来谈谈你的商业模式。很多人都在问:生成式AI到底是不是一个真正可持续的生意?而我也常常被问到这个问题。你已经提到你们融资将近200亿美元:来自Google的30亿、Amazon的80亿,还有由Lightspeed领投的35亿新一轮融资。我想问的是:你怎么做融资路演?毕竟你不是一家大厂附属的公司,是独立运营的。你是拿着一套Scaling Law的图表去问:“能不能给我点钱” 吗?

Dario 

我一直以来的观点是:人才是最重要的资产。三年前,我们刚刚筹集了几亿美元,而OpenAI已经从微软融到了130亿。大公司都坐拥1000亿、2000亿美元现金储备。但我们当时的Pitch是——我们知道怎么把模型做得比别人更好。

 也许大家都在一条“扩展曲线”上,但如果我们能用1亿美元做到别人花10亿美元才能做到的事情,用10亿美元做到别人100亿美元的事,那在资本效率上,我们就比他们高一个数量级。换句话说,投资Anthropic的钱,能比投其他公司产生10倍回报。

 你愿意做一家能把一切成本压到十分之一的公司?还是一开始就有一大堆钱的公司?如果你有更高的效率,缺钱是个可以弥补的“暂时性问题”;但如果你做事的效率低,再多的钱也弥补不了。投资人并不傻,或者说,不总是傻(笑)。他们是懂“资本效率”这个概念的。

我之前也说过:Anthropic 是历史上成长最快的软件公司之一。在我们这个规模上,从2023年的 0 到 1 亿美元,再到 2024 年的 10 亿美元,如今又从 10 亿增长到大约 45 亿美元——这是每年 10 倍的增长。每年我都会怀疑还能不能继续,但它确实就发生了。所以,我认为我们的增长速度已经能很好地说明,我们有实力和“大厂”掰手腕。

主持人 

CNBC 报道说,Anthropic 目前有 60%-75% 的收入来自 API 接入,基于内部文件,这是准确的吗?

Dario

我不会给出确切数字,但可以说大多数收入确实来自API。不过我们的App业务也很兴旺,尤其是最近推出的Max Tier服务,面向高阶用户,还有Claude Code,专为程序员设计。我认为我们的应用业务增长也很快。但总体上,是的,API 依然是主要收入来源。

主持人

所以你们是在做一场“对技术最纯粹的押注”。比如OpenAI 押注的是 ChatGPT,Google押注的是无论技术发展到哪,它都可以嵌入 Gmail 或 Calendar。但你们为什么选择这么“纯粹”的方式下注?

Dario

嗯,我不会完全用你刚才的说法来描述我们现在的定位。我更愿意说:我们押注的是模型在商业场景中的使用,而不仅仅是API本身。只是,模型的第一个商业用途刚好是通过API形式体现出来的。就像你说的,OpenAI 更侧重于C端用户,Google则专注将AI嵌入它现有的产品体系中。而我们的看法是:AI在企业和专业领域的应用最终可能会超过C端应用。我指的“商业使用”不仅包括大企业,还包括初创公司、开发者,以及那些为了提升生产力而使用AI的“重度用户”。

而且我认为:做一家专注于商业应用的公司,反而能激励我们更有动力去不断提升模型。你可以做这样一个思想实验:假设我有一个模型,它现在的水平相当于本科生级别的生物化学知识。然后我把它训练到博士水平。如果我去找普通消费者,说“嘿,我把它从本科生提升到了博士生”,可能只有1%的人会在意,剩下99%会说“我本来也看不懂”。但如果我把这个消息告诉辉瑞(Pfizer)这样的公司,那就是天大的事,他们可能会愿意为此多付10倍的钱,因为这对他们的价值是10倍以上。

所以,从帮助模型解决现实世界难题的目标出发,比如我在《Machines of Loving Grace》中写过的那些事情:解决生物医学、地缘政治、经济发展等问题,当然也包括更常规的金融、法律、保险等生产力应用,这些目标反而会驱动我们把模型做得更强。我认为,这可能反而是更健康、更积极的商业路径。我们选择这条路线,是因为它与指数级进展的趋势更加一致。

AI公司在亏损,但每个模型都是盈利的

主持人 

那你们是怎么决定要做代码生成这个用例的?

Dario 

就像很多事一样,我们一开始只是想把模型在各个方面都提升一下,而在这个过程中,代码这部分特别突出。我过去和成千上万的工程师共事过,大概在一年前,我遇到过一个我合作过的最厉害的程序员之一,他说:以前的编程模型对我毫无用处,但这次你们的模型,真的做到了我做不到的事。后来我们发布后,立刻开始有快速的用户增长。这也正好是 Cursor、GitHub Copilot 之类的代码工具爆红的时期。我们看到势头后,就加大了投入。我认为代码生成特别有趣有两个原因:一是它的采用速度非常快;二是编程模型本身又能反过来帮助我们开发下一代模型,有一种正反馈优势。

主持人 

现在你们通过 Claude Code 来出售AI编程服务,但定价模型让一些人感到疑惑。我采访过一位开发者,他花200美元订阅Max Tier,却相当于获得了6000美元API额度的使用权。Ezra(注:业内分析人士)指出,如果你们的模型越火,这种“超级用户”反而会让你们亏得更多。这怎么算得过来呢?

Dario

其实定价机制和速率限制(rate limits)比你想的要复杂。我们在发布Claude Code和Max Tier时,确实没有完全预料到用户会怎么使用模型,也没预料到他们能从中获取多大的价值。

所以,就在这几天(指采访录制时间点),我们已经对这个订阅层做了调整,尤其是对大模型的使用。现在应该已经不可能再用200美元获得6000美元级别的算力。当然,未来可能还会有进一步的调整。但我们的目标始终是服务好各种不同类型的用户:重度用户和轻度用户。而就算有人通过订阅获得了比按API计费更“划算”的体验,也并不一定意味着我们真的在赔钱。你所说的一些前提其实并不准确。

主持人 

但问题是:你们是否能继续支持这些重度用例,而不提高价格?比如一些开发者抱怨,用Anthropic新模型结合 Cursor 成本比以前高了很多。有些初创公司告诉我,Claude 经常“下线”,他们猜测是因为你们拿不到足够的 GPU。我还采访了 Relit 的 Ajab Mossad(将在下周播出),他说以前模型的token价格一直在下降,但最近已经停止下滑了。是不是这些模型本身的运行成本已经逼近Anthropic自身的极限了?

Dario 

我觉得你这些判断,其实建立在一些错误的假设之上……

主持人

这正是我想问CEO你的原因。

Dario

是的,我的思考方式是,我们会从模型创造了多少价值的角度来思考。随着模型越来越强,我会评估它创造了多少实际价值。而另一个问题是:这些价值是如何在不同角色之间分配的——比如模型开发者、芯片制造商、底层应用构建者等等。所以我认为,你的问题中存在一些假设,并不完全成立。

主持人

那你说说看,哪些假设不对

Dario 

我这么说吧——我预计,在相同智能水平下,模型的运行成本会持续下降。而如果是追求“最前沿”的智能水平,那么其成本有可能上升,也有可能下降。我猜测可能会保持稳定。但同时,模型所创造的价值会大幅上升。所以两年后,我预计模型的运行成本大致相当于现在,但能力将更强、工作更自主、适用范围更广。

主持人

 我刚才提到Ajab Mossad的观点是:大模型更难运行,运行成本也更高,虽然一些新技术(比如只激活部分神经元的架构)能减轻计算压力。换句话说,Anthropic 能够以较小的后端成本运行大模型,但价格却没降低。他认为:要实现软件行业的利润率,Anthropic迟早得涨价——现在的毛利率还低于软件行业平均水平。

Dario

我还是得说,大模型确实比小模型贵。你提到的技术应该是“Mixture of Experts”(MoE,专家混合模型),这是一个在训练和推理时减少成本的架构优化方法。无论你是否使用MoE,只要是更大的模型,就必然在使用同一类技术的前提下比小模型更贵。所以这个说法其实有点误导——大模型即使用了MoE,也比小模型用MoE贵

主持人 

我只是猜测,希望你告诉我真相。

Dario 

好的,那我再讲讲成本这块。人们总以为“毛利率从X%提升到Y%”特别难。但实际上我们在推理效率上每年都取得了巨大进展,常常能让模型效率提高50%。过去几年,推理效率已经有了巨大提升,这也是价格持续下降的原因。

主持人

那你们多久才能盈利?我听说今年亏损大概是30亿美元。

Dario

 那只是别人说的。这里我们要分清几件事:

  1. 模型运行成本:也就是模型每赚1美元,花出去多少。这个部分其实已经相当健康了。 
  2. 人力和办公成本:比如员工工资和办公室租金,这一块占比其实不高。 
  3. 训练新模型的成本:这才是最大开销。所谓“公司在亏损、还没盈利”的说法,其实是有误导性的。你要从“扩展法则”的视角去理解。 

做个假设(这不是Anthropic的真实数据):假设我们在2023年花1亿美元训练一个模型,2024年部署这个模型,营收是2亿美元。但同年又花了10亿美元去训练下一代模型。那么:

  •  2024年账面上看是亏损8亿; 
  •  到2025年,新模型赚2亿美元,又花100亿训练下一个; 
  •  又是账面亏损。 

你看上去像是每年都在亏损,但如果把每个模型看作一个“风险投资项目”——比如我投了1亿美元,第二年赚了2亿,那么这个模型本身是赚钱的。再下一代模型,投10亿,赚20亿,也是赚钱的。每个模型是盈利的,只是公司每年账面亏损

我不是在说这就是Anthropic的数据,但这是这个行业的整体动态机制。一旦某年停止投入训练新模型,公司就能开始盈利——但没有人会那样做,因为大家都在投下一代模型。

 所以我觉得,这种“公司每年都亏损”的想法,其实不太对。

AI开源是一个伪命题,不会削弱Claude的商业价值

主持人

一旦开源技术足够强大,是不是就能把 Anthropic 替换掉,直接用开源的?

Dario 

你知道,这个行业一直有一个现象——每当AI进入一个新的社群,这个社群就会带着自己那套思维习惯来看待AI的发展。我在2014年刚进入AI行业时,遇到的那一代机器学习研究者就是这样:他们有自己一套认知框架,总觉得新技术“只是炒作”“不可能扩展”“规模化不了”。但由于AI本身是指数发展的,这些想法最终都被打脸了。

后来同样的事也发生在企业部署AI的阶段,在创业圈也发生了。现在我们进入了一个新阶段——世界上的商业领袖、投资人,也有自己那一套“价值链分层”的思维方式,他们关心“价值会落在哪一层?”“会不会被开源取代?”等等。

在这套语境中,开源(open source)就被看成了一个“破坏性因素”——它能让所有人看到一切,所以它被认为会削弱商业价值。但我并不来自这个世界,我没有那种习惯性的思维,反而因此看得更清楚一些。很多时候,越不了解上一代行业语法的人,反而预测得更准。

我一直认为,AI领域的开源,并不等同于软件领域的开源。你无法“看见”模型内部发生了什么——你能看到的是模型的权重(open weights),不是源代码(source code),两者是有本质区别的。所以开源带来的“共建、协同、可复用”这些优势,在AI领域并没有那么强。

所以我从来不在意一个模型是不是开源。我看到新模型发布时,我首先关心的是:它好不好?它比我们强吗? 就这么简单。

比如 DeepSeek,我不在意它是否开源。我只关心它是不是一个好模型,它在哪些任务上胜过我们,这才是我唯一在意的。

而且最终你还是得把模型部署在云端,这些大模型推理成本极高。即使你看到了权重,也需要非常复杂的基础设施来运行。现在很多云服务已经允许你对模型进行微调,甚至我们也在研究一些可视化模型激活值的解释界面。所以我认为“是否开源”这个标准,根本就不构成竞争重点

在我看来,开源其实是个“伪命题”。

主持人 

可如果它是免费、低成本的呢?

Dario 

它不是真的“免费”。你仍然需要为推理(inference)付出成本,仍然需要有人去优化它的运行效率。

谈个人经历:父亲患病离世,让他坚定了从生物转向AI

主持人 

好吧,那我们换个话题。我想更了解你这个人——我们还剩一点时间,聊聊你的成长经历和你是如何走到今天的。你小时候在旧金山长大,生活是什么样的?

Dario

是的,我小时候的旧金山其实还没有经历太多“高端化(gentrification)”,科技热潮也还没开始。我上高中的时候,硅谷热才刚刚兴起。其实我那时候对科技一点兴趣都没有——我觉得“搞网站”之类的事情非常无聊;“创办公司”这种事也完全不是我感兴趣的方向。

我感兴趣的是科学、物理、数学,我想探索世界的底层规律,想要做一些让世界变得更好的事情。所以尽管我当时就生活在科技中心,但我几乎对那一切都没有关注。现在回想起来,也许那时候有很多值得我学的东西,但我当时完全没在意。

主持人 

你母亲是犹太人,父亲是意大利人——在我老家长岛(Long Island),我们会叫你“披萨百吉饼(pizza bagel)”。

Dario

 “披萨百吉饼”?哈哈,这个说法我还是第一次听。

主持人

你和父母的关系怎么样?

Dario 

我和他们关系一直都很亲密。他们教会我对“对错”和“什么是重要的事情”有清晰的判断。我最记得的是,他们给予我一种强烈的责任感——他们一直都是有社会责任感的人,努力让世界变得更好,这对我影响很大。我们家庭氛围非常有爱也很关心彼此。

我和我妹妹丹妮拉关系也非常好,她后来成了我在Anthropic的联合创始人。我们很早就决定,希望有一天能一起工作。虽然没想到会发展成现在这样的规模,但我们确实很早就有了这个共同的目标。

主持人 

我采访过很多认识你的人,他们都说你父亲的病对你影响很深。你能谈谈这段经历吗?

Dario

是的,他确实生病了很久,最终在2006年去世。这其实是促使我后来从事生物学的一个重要原因——这点我们在采访中还没提到。在进入AI之前,我其实是进入了生物领域。

我当时去了普林斯顿,最初的志向是做理论物理学家,一开始还在做一些宇宙学的研究。但就在那段时间,我父亲去世了。这件事对我产生了很大影响,也是促使我转向生物学、试图解决人类疾病和生命科学问题的原因之一。我开始和系里做生物物理、计算神经科学的教授接触,这也成了我从物理转向生物与计算神经科学的契机。后来,我才最终走上了AI这条路。

我之所以进入AI,其实是这个动机的延续。我在生物领域工作多年后逐渐意识到:生物问题的复杂性,已经超出了人类大脑的处理能力。要理解这些问题,可能需要几百上千位科学家,但他们又常常无法高效协作、整合知识。而我当时开始接触AI,感觉它是唯一能跨越这个人类认知极限的技术,能够帮助我们真正理解并解决生物学问题。所以说,这其中其实有一条清晰的主线。

主持人 

我可能记得不太清,但据我了解,你父亲当时的病,在他患病那几年基本无药可治,但后面几年,医学上已有很大突破。可以说说这个吗?

Dario 

是的,确实如此。实际上,在他去世之后的三四年里,这种疾病的治愈率从50%跃升到了95%

主持人 

那一定让你觉得非常不公平吧?你父亲被带走,结果几年后这病就能治好了。

Dario 

当然会有这种感觉。但这也正是为什么我会觉得解决这些问题如此紧迫——某个人在某个时间点找到了解药,拯救了无数生命;可如果这个解药能早几年问世,本可以拯救更多人。我觉得这正是AI争议中最矛盾的地方之一。

AI 的确有巨大益处,而我希望每个人都能尽早获得这些益处。某种程度上,我可能比很多人都更明白这些益处的紧迫性。所以当我说AI有风险、我对某些事感到担忧时,其实我很清楚这背后的利害关系。

当有人说我是“末世论者”,说我想拖慢AI进展,我真的会非常生气。你也听到了,我的父亲就是因为某些疗法晚几年才出现而去世的。我当然明白这项技术的潜力。我写《Machines of Loving Grace》的时候,就列出了这项技术能如何改善数十亿人生活的路径

但那些在 Twitter 上一味鼓吹“加速主义”的人,我觉得他们根本没有人文关怀的视角,他们脑子里只有肾上腺素,只想“加速!加速!”我看不到他们是真的在乎什么。当这样的人称我为 doomer,我会觉得他们完全不具备道德资格来这么评价别人,我也彻底失去了对他们的尊重。

主持人 

我注意到“impact(影响力)”这个词在你身上被反复提及。很多跟你共事过的人都说你对“产生影响”有一种执念。甚至有人告诉我,你不看《权力的游戏》,因为你觉得这不与“影响力”相关,是在浪费时间。

Dario 

其实不太准确。我不看《权力的游戏》,是因为我觉得它太负面了。剧中的角色,有的是环境所致,有的则是本性恶劣,最后无论是情节还是人物走向,每个人的结局似乎都比开头还糟糕。我个人是非常希望能创造“正和局面”(positive-sum situations)的人。

主持人

好吧,但我还是推荐你看(笑),这剧真的很好。

Dario 

我知道我知道(笑),只是我一直很抗拒,所以很久都没去看。

主持人

我们回到“impact”(影响力)这个话题上吧。可以说,你整个职业生涯其实就是在追寻这个“影响力”——如果我没有理解错,你是想防止更多人经历你父亲那样的境遇,对吗?

Dario

是的,我觉得你说得没错,虽然这只是其中的一部分。我确实一直在思考:如何真正有效地帮助人。因为有太多试图帮助他人的努力,有些有效,有些则没什么效果。所以我始终觉得,帮助别人这件事必须有战略,有脑子

这意味着它往往是一条漫长的路径,可能需要通过公司,通过一系列看似与“影响”无关的技术工作去实现。但我一直试图让这条“轨迹”最终指向那个目标。这就是我为什么进入AI的原因:我当时看到,生物领域的问题几乎是“不可解”的,或者说进展太慢。

OpenAI、奥特曼的AI使命不够真诚

Dario 

我之所以创办公司,是因为我之前在其他公司工作时,感受到它们的运行方式并不是围绕真正“产生影响”而展开的。虽然很多公司喜欢讲“使命”故事来吸引人才,但我渐渐发现,那些故事并不真诚

主持人

听起来你其实在说 OpenAI,对吧?据我所知,你当时掌握了 OpenAI 50% 的算力,也主导了 GPT‑3 项目。如果真的有人最在意“影响力”和“安全性”,那不就是你吗?

Dario 

确实有一段时间是这样的,特别是在我们扩展 GPT‑3 的时候。不过不是始终如此。当时我在 OpenAI 工作,我和很多后来的 Anthropic 联合创始人一起做项目。

主持人

你们当时被叫做“附录团队(Appendices)”,是你起的名字吗?

Dario 

不是我起的,也不是他们自称的。那是别人给起的称呼,我从来没有用过这个词。

主持人 

明白,谢谢澄清。

Dario 

当时我们确实在推进模型的扩展。事实上,GPT 和 GPT‑3 的最初目标是AI 对齐研究(alignment)的延伸。我们当时,包括我、Paul Christiano,还有后来一起创办 Anthropic 的团队成员,发明了“来自人类反馈的强化学习”(RLHF)方法,目的是让模型更能符合人类意图。

这其实是我们后来想研究的另一个方法“可扩展监督(scalable supervision)”的前身。而我们发现,早期的小模型,比如 GPT‑1,根本无法很好地应用这些技术。所以我们必须训练更大的模型 GPT‑2 和 GPT‑3,来测试这些 alignment 方法是否真的有效。

这也让我意识到一件事:AI系统的能力与对齐问题,其实是交织在一起的。你很难只研究安全而不去碰能力问题,反过来也一样。真正影响这个行业走向的,其实是一些组织层面的决策:什么时候发布模型?内部怎么设置研究方向?这些比纯粹的技术更重要。这也促使我们这些后来的 Anthropic 创始人,决定独立出来,按我们的方式去做。

主持人

但正因为你说“能力和安全是一体的”,而你当时又是 OpenAI 能力前沿的领导者——你一旦离开,OpenAI 肯定还会继续训练模型。那为什么不留下来从内部推动安全呢?你不是更有影响力吗?

Dario 

问题是这样的:模型是否发布、公司治理结构、公司如何对外表述、是否对社会负责——这些都不是你光靠“训练模型”就能决定的。我认为公司领导者必须是真正可信、有真诚动机的人。即便你是技术上的核心人物,但如果你是在为一个动机并不真诚、也不想让世界变得更好的人工作,那你所做的一切,最终也只是在为错误的事情添砖加瓦。

谈和黄仁勋的矛盾:他完全曲解了我,我们只是想做个行业榜样

主持人

你肯定也听过像黄仁勋这样的批评者说,“Dario觉得只有他能安全地做这件事”,所以——用那个关键词来说——你其实想“控制整个行业”。

Dario 

我从来没说过那种话。那是彻头彻尾的谎言,是我听过最荒谬的指控之一。

主持人 

哦对,我如果误引了黄仁勋的原话,抱歉。

Dario

没事,他确实这么说了。

主持人 

那他当时的意思是……

Dario

是的,那些话本身就荒谬至极。事实上我多次公开表达,并且 Anthropic 的行动也体现了,我们追求的是一种叫做“向上的竞赛”(Race to the Top)的理念。我在许多播客中都说过这件事,Anthropic 的行为也证明了这一点。

当其他公司陷入“向下的竞赛”(Race to the Bottom)时,大家都在拼命抢先发布产品。而我认为,当你进行一场向下的竞赛时,无论谁赢了,大家都是输家:你发布了一个不安全的系统,它要么帮了你的对手,要么带来经济问题,要么就是本身危险。相反,“向上的竞赛”意味着无论谁赢,大家都受益。

举个例子就是我们的“负责任的扩展政策(Responsible Scaling Policies)”。我们是第一个提出这套政策的公司。我们没有说“别人也该这么做”或者“你不这样就是坏人”,我们也没把它当作商业优势,而是主动公开,并鼓励其他公司效仿。后来我们发现,其他公司内部确实也有人推动这类政策,而我们公开发布的行为,为他们提供了说服管理层的理由

在模型可解释性研究方面我们也是这样做的。我们公开发布所有的成果,允许其他公司使用,哪怕这可能会削弱我们的商业优势。比如宪法式训练(constitutional)、危险能力评估(dangerous capabilities evals)等安全方向,我们始终在试图为整个行业树立榜样

当然,成为一家有商业实力的公司也有助于实现这些目标。我从没说过“只有我们能造出安全AI”,任何人若从我说过的话中得出这个结论,那都是极端的恶意曲解。

再过几年,AI就会成为世界上最大的收入来源

主持人 

那我们就在这里收尾吧。你现在可以说是找到了自己的影响力,几乎是在实现梦想的路上。想想AI在生物学等各领域的潜力吧。但与此同时你也说这是一项危险的技术。我好奇,你这种想要产生影响的愿望,会不会在无意中加速了这项技术的发展,同时低估了它可能根本无法被控制的可能性?

Dario 

我认为,在整个行业中,我是最早、最频繁警告AI技术危险性的人之一。我们刚才花了十几二十分钟讨论那些掌管万亿美元公司的大佬们是如何批评我,责怪我总是在谈论这些危险的。美国政府官员、一些市值四万亿美元公司的领导人都在质疑我,说我动机可疑,说我在胡言乱语。但我还是会继续讲。

我其实认为,随着AI带来的经济效益迅猛增长(而且是指数级地增长),如果我判断没错的话,再过几年AI会成为世界上最大的收入来源,会成为最大的产业。而企业家们其实早就意识到了。问题是,我们现在处在一个非常可怕的局面——有数千亿、甚至可能达到二十万亿美元的资本,正全力支持让AI发展得更快。而像我们这样虽然也有价值的公司,在这股浪潮面前看起来微不足道,可能只有600亿美元的估值。即便如此,我仍然在不断发声。哪怕这会惹恼政府官员,比如因为我们反对暂停监管、支持芯片出口管制、或是公开谈论AI的经济影响,每次这么做,我都会遭到不少同行的攻击。

主持人  

但你依然是在假设我们是可以控制它的,我的问题就在于这一点。

Dario 

是的,但我要告诉你,我到底付出了多少努力、坚持了多久,在面对所有压力和危险时,仍然选择站出来说话。如果我真认为这项技术无法控制,哪怕只是觉得它是场赌博,我也不会这么做。

有些人说,你是不是觉得AI出问题的概率是5%或10%,你这是在掷骰子。但我的想法不是这样的。

我认为这是一个多阶段的博弈。我们每开发出一个更强大的模型,就得配合更严格的测试体系。随着我们一步步接近更强的AI模型,我就会发出更大的声音,采取更激烈的行动——因为我真的很担心。虽然我们在解决这些风险上取得了一些进展,但进展的速度并不一定匹配技术发展的速度。当我觉得两者失衡了,我就会更大声地提醒。所以你问我为什么一直在说这些?其实就是因为指数增长正在逼近一个危险的节点,而我们的风险管理还没有跟上技术发展的速度。

如果我真相信技术无法控制,而我目前完全看不到这种证据——事实上,每发布一个模型,我们对模型的控制能力就更强。虽然它们仍然可能出现一些意外行为,但如果我们只是靠目前的对齐技术来控制未来更强大的模型,那我肯定会非常担心,甚至会大声疾呼:“大家都别再搞下去了”。我认为(芯片方面)的出口管制其实是一个有效的手段。

如果几年之后,模型能力大幅领先,而我们还是用现在这些对齐技术,那我一定会主张全面降速。而我现在之所以一直在警告风险,就是为了我们不用降速——而是可以投入资源,把安全技术做得更扎实,从而让整个行业继续前进。因为哪怕一家愿意减速,其他公司不会停,地缘对手更不会停。这对他们来说是生死存亡的竞赛。所以我们没有多少回旋余地——这是一场必须参与的竞赛。我能做的,就是加快安全技术的发展。

我写了很多文章讨论可解释性、安全技术方向的重要性。我们把所有的安全研究公开发布,因为我们认为这是公共产品,是每个人都需要共享的内容。

如果你有更好的策略,能平衡技术的好处、不可避免性和它的风险,我非常愿意听。我每天入睡前都在思考这个问题,因为我非常清楚利害关系——包括它能带来的好处、它能挽救的生命。

这些我都亲眼见过。我也亲眼看到模型出错。比如 grok 就是一个例子。人们现在可能会不以为然,但当这些模型开始采取行动、进入制造环节,甚至参与医疗干预时,就不会再有人笑了。现在它们只是“在说话”,但以后不是。这需要我们用极其严肃的态度来对待,因为这是一场高风险决策。

让我很担心的是,一方面我们有一群“末日论者”(doomers)。有人说我是末日论者,其实我不是。但确实有那些坚信“AI根本不可能安全”的人。我看过他们的论点,都是些胡言乱语。承认模型有风险、甚至可能危及人类,这是合理的。但声称我们逻辑上可以证明它们永远无法被安全控制,那就太扯了。这种回应是缺乏理性和道德严肃性的。

同样地,那些掌握了20万亿美元资本、却整天串联在一起、眼里只有美元符号的人,说“我们应该10年都不监管这项技术”,这也是非常不严肃的态度。

还有人说:“你们这些担心AI安全的人,只是想自己垄断技术。”这也是一种荒唐、缺乏道德严肃性的说法。

我们坐在这里做了所有能做的研究。每当觉得有必要,我们都会发声。比如在谈论AI的经济影响时,我们设立了专门的经济研究委员会,有实时追踪模型的经济指数,也给研究者发放资金,让他们能理解AI对经济的影响。

那些比我在技术上投入更多资金的人,却轻描淡写地对我进行人身攻击——我认为这跟那些末日论者一样,都是缺乏理性和道德责任感的态度。我们真正需要的,是更多的思考、更多的坦诚、更多愿意为了公众利益发声的人——而不是沉迷于“X平台上的热梗”和轻率的观点。我们需要有人真正去了解这个局面,做研究、出成果、带来启发和见解。我正在尽我所能去做这件事,虽然不完美,但我尽力了。如果能有更多人也愿意这样做,那就太好了。

主持人

Dario,我在镜头外说过,但现在想在结尾公开说一遍:我很欣赏 Anthropic 的公开精神。我们从你们的各种实验中学到了很多,不管是模型红队测试,还是“自动售货机Claude”项目,虽然今天没来得及展开讲,但你们的透明确实让这个世界变得更好。感谢你愿意花时间坐下来接受这次访谈。

Dario  

谢谢你邀请我。

主持人

感谢大家的收听和观看,我们下期节目再见。

相关资讯

Anthropic 最强 AI 模型 Claude Sonnet 4 / Opus 4 有望明日发布

科技媒体 bleepingcomputer 今天(5 月 22 日)发布博文,报道称基于 Anthropic 官网配置文件,该公司正秘密研发 Claude Sonnet 4 和 Claude Opus 4 两款全新 AI 模型。
5/22/2025 10:48:24 AM
故渊

Anthropic Introduces Claude Conversational Voice Mode for Mobile Devices, Searches Google Docs, Calendars, etc.

An artificial intelligence startup called Anthropic, located in San Francisco, announced the launch of a major update for its Claude AI chatbot: a brand-new voice conversation mode. This feature is now available in the mobile app on Apple's App Store (for iOS devices) and Google's Play Store (for Android devices).. In addition to the introduction of the voice mode, Anthropic has also expanded web search capabilities for all free users.
5/28/2025 11:01:26 AM
AI在线

用不了ChatGPT?快试试免费又强大的Anthropic Claude

大家好,这里是和你们一起探索 AI 的花生~ 前段时间 OpenAI 不稳定导致有些小伙伴没有办法继续使用 ChatGPT 了,不过没有关系,最近又新出现了一个 AI 聊天机器人 Claude,功能与 ChatGPT 不相上下,还比 ChatGPT 更容易获取和使用,目前可以免费使用,一起来看看吧~ 往期回顾:一、Claude 简介 Anthropic 官方: Claude 是最近新开放的一款 AI 聊天机器人,是世界上最大的语言模型之一,比之前的一些模型如 GPT-3 要强大得多,因此 Claude 被认为是
4/23/2023 7:51:39 AM
夏花生
  • 1