AI在线 AI在线

马斯克、吴恩达青睐,黄仁勋批评,见证百度、OpenAI内部起落,Anthropic CEO自曝式采访:诞生四年,每年营收十倍增长

编译 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)进入7月底,巨头们迎来了新一轮的财报周,而创业公司们也迎来了新一轮的采访和融资周。 昨天,Anthropic 的创始人 Dario Amodei 接受了知名播客 The Big Technology 的采访,主持人 Alex Kantrowitz 事后自己走访了 Dario 的朋友、同事、竞争者二十余次,特别为这次含金量满满的采访写了一篇特稿:《 Anthropic CEO 成长之路》。 可以说是 Dario 的半篇自传了。

编译 | 云昭

出品 | 51CTO技术栈(微信号:blog51cto)

进入7月底,巨头们迎来了新一轮的财报周,而创业公司们也迎来了新一轮的采访和融资周。

昨天,Anthropic 的创始人 Dario Amodei 接受了知名播客 The Big Technology 的采访,主持人 Alex Kantrowitz 事后自己走访了 Dario 的朋友、同事、竞争者二十余次,特别为这次含金量满满的采访写了一篇特稿:《 Anthropic CEO 成长之路》。

可以说是 Dario 的半篇自传了。作者将其称为“AI 世界最直言不讳的领导者”,并深挖了 Dario 的人生轨迹,从父亲的因病去世到被吴恩达赏识进入百度,再到其AI团队的瓦解,认识马斯克进入 OpenAI,尔后的事情,则是主导 GPT2、3 的发布,但却陷入了另一场高层之间的内斗分歧,甚至被黄仁勋也批评:Dario 认为只有他们自己才能开发安全的AI。

再后来的事情,大家都知道了。

此外,Dario 还解释了最近加强了速率限制的原因:因为部分开发者实在用得太猛了,甚至影响了盈利。

如今,Anthropic公司估值已经超过 600 亿美元,年化经常性收入从 2025 年 3 月的 14 亿美元,涨到 7 月接近 45 亿美元。

那么,新一轮融资在即,这家公司的掌舵者究竟是外界看来的“悲观拖慢派”,还是“加速推进派”呢?

大家不妨细细看来这篇深度好文,让我们看看 Dario Amodei 是如何“向上竞争”的。建议大家收藏细读,自行划线。

原文如下:

直言不讳的大嘴,甚至得罪黄仁勋做到 4 年,610亿美元估值

Dario Amodei 毫不犹豫地回答了我的问题:是什么驱动了他?这位 Anthropic 的 CEO,整个 2025 年都处于“战争”状态——与行业同行、政府官员、以及公众对 AI 的看法激烈交锋。

过去几个月,他预测 AI 很快将淘汰 50% 的初级白领工作;他在《纽约时报》上公开抨击「十年 AI 监管缓冲期」的提案;他还呼吁对华实施半导体出口管制,引发了英伟达 CEO 黄仁勋的公开反驳。

尽管风波不断,Amodei 仍然在旧金山市中心的公司总部一楼接受了我的采访。他显得松弛而精力充沛,迫不及待想开讲,仿佛早就等着这个机会来解释自己的行为。他身穿一件蓝色立领针织衫,内搭一件白 T 恤,戴着厚边眼镜,坐下后目视前方。

Amodei 表示,驱动他一切行动的,是一个坚定的信念:AI 的发展速度远超大多数人的想象,它所带来的机遇与风险比人们以为的更近在眼前。“我确实是那种最坚定相信 AI 能力会快速提升的人之一,”他说,“随着我们越来越接近那些更强大的 AI 系统,我越来越想更坚定、更公开地说出来,把这个信号传得更清楚。”

他的直言不讳和锋利作风,在硅谷赢得了尊敬,也惹来了批评。有人视他为科技远见者——他曾主导 OpenAI 的 GPT-3 项目(ChatGPT 的前身),又在安全问题上与 OpenAI 分道扬镳,创立了 Anthropic;也有人把他看作一个「悲观主义管控者」,总想减慢 AI 的步伐,将其导向自己设定的轨道,并排除竞争者。

不管你喜欢还是讨厌他,AI 世界都无法绕开他。Anthropic 如今估值 610 亿美元,从 2021 年的零起步一路走到今天。尽管尚未盈利,公司的年化经常性收入从 2025 年 3 月的 14 亿美元,涨到 5 月的 30 亿,再到 7 月接近 45 亿美元。Amodei 自信地称其为“在这个体量上史上增长最快的软件公司”。

比起收入数字,更值得注意的是 Anthropic 的收入来源。与 OpenAI 依靠 ChatGPT 等应用拉动增长不同,Amodei 押注的是底层技术本身。他告诉我,公司大部分收入来自 API,或是其他企业将 Anthropic 模型集成进自己产品。这也意味着,Anthropic 的兴衰将直接反映 AI 技术本身的进展。

随着公司壮大,Amodei 也希望借此影响行业发展方向。鉴于他愿意出拳、也能承受反击,他可能真的能做到。

因此,如果这个人将掌舵全球最具影响力的新兴技术之一,我们有必要理解:是什么在驱动他,他如何看待商业与技术,以及——为何他的时间线比其他人都要短。

在采访了他本人、朋友、同事、竞争者共二十余次之后,我认为,我找到了答案。

可治之病:一场私人悲剧改变了人生方向

Dario Amodei 从小就是个科学迷。1983 年出生于旧金山,母亲是犹太人,父亲是意大利人。他几乎只对数学和物理感兴趣。上高中时,尽管身处 dot-com 泡沫的中心,他对那些网站创业潮毫无兴趣:“我对做网站一点兴趣都没有,”他告诉我,“我关心的是探索基础的科学真理。”

在家里,他与父母关系亲密。他说,父母是致力于让世界变得更好的一对爱侣。母亲 Elena Engel 在旧金山和伯克利主导图书馆的翻新与建筑项目,父亲 Riccardo Amodei 是一位皮革工艺师。“他们教会我分辨是非、看重什么。”他说,“让我从小就有很强的责任感。”

这种责任感,在他本科就读加州理工学院时就展现出来了。他在学生报纸《The California Tech》上撰文,猛烈批评同学们对伊拉克战争的冷漠:“问题不在于大家都支持轰炸伊拉克,而是大多数人虽然原则上反对,却连一毫秒的时间都不愿意投入。”——这是他 2003 年 3 月 3 日发表的文章。“这种状态必须立即改变。”

而在他二十出头的时候,人生发生了剧变。他的父亲 Riccardo 长年与一种罕见疾病抗争,最终在 2006 年离世。这个打击让 Amodei 决定将研究方向从理论物理转向生物学,希望攻克人类疾病。

而在父亲去世的短短几年后,一项关键突破让这种疾病从“致死率 50%”变成了“治愈率 95%”。这件事深深影响了他。“是有人开发了这个治疗方案,成功了,救了很多人,”Amodei 说,“但如果能更早一点,就能救更多。”

据他早年的女友 Jade Wang 回忆,父亲的去世几乎改变了他的整个人生轨迹。“这不是小事,是生死之差,”她说,“如果科学进展能更快一点,他父亲可能还活着。”不过,Amodei 直到多年后才找到 AI,作为承载他信念的技术容器。

回忆起父亲之死时,Amodei 变得格外激动。他认为,外界对他推动安全管控、主张出口控制的看法,完全是误解。

“每当有人说我是个悲观主义者,只想减慢 AI 发展速度时,我都会非常愤怒。”——Dario Amodei

“我刚才说了,我父亲是因为当时还没有研发出治疗手段而去世的。我比任何人都清楚这项技术的意义。

吴恩达的橄榄枝:加入百度前的岁月

在普林斯顿,仍未从父亲去世的伤痛中恢复的 Amodei 开始了破解人类生物机制的探索之旅。他选择从研究视网膜开始。我们的眼睛通过发送信号到视觉皮层来捕捉世界——视觉皮层是大脑中占据了大约 30% 的皮层区域,负责处理这些信号并构建我们眼中的图像。如果你想攻克人体生理的复杂性,视网膜是一个绝佳的起点。

“他利用视网膜来观察一个完整的神经群体,并试图真正理解每个细胞在做什么,或者至少获得这个机会。”他在普林斯顿的同时期同学 Stephanie Palmer 说,“这更多的是关于大脑,而不是眼睛。他并不是想成为眼科医生。”

在 Michael Berry 教授的视网膜实验室工作时,Amodei 对当时测量视网膜信号的方法极为不满,甚至共同发明了一种全新的传感器,能更有效地收集数据。这在实验室中非常少见,既令人印象深刻,又显得特立独行。他的博士论文赢得了赫兹奖学金论文奖,这是一个专门授予那些将学术研究成果转化为现实应用的杰出学生的奖项。

马斯克、吴恩达青睐,黄仁勋批评,见证百度、OpenAI内部起落,Anthropic CEO自曝式采访:诞生四年,每年营收十倍增长

但 Amodei 挑战规范的倾向,以及他对事物“该如何运作”的强烈执念,在学术界显得格格不入。Berry 教授说,Amodei 是他教过最有才华的博士生,但他对技术进步和团队协作的关注,并不符合学术界那种强调个人成就的体系。

“我觉得他内心是个挺骄傲的人,”Berry 说,“我猜在他之前的学术生涯中,每次做出成果都会被称赞鼓掌,而在这里并不是这样。”

“他并不是想成为眼科医生。” ——Stephanie Palmer

Amodei 离开普林斯顿后,AI 的大门向他敞开。他在斯坦福大学跟随 Parag Mallick 研究肿瘤中的蛋白质,试图识别转移性癌细胞。这个研究项目非常复杂,让 Amodei 意识到人类单凭自身已难以应对这些生物难题,于是他开始寻找技术解决方案。“我觉得生物学中那些底层问题的复杂性,已经超出了人类自身的理解规模。”Amodei 说,“要真正理解这些问题,你需要几百甚至几千个研究员。”

他开始在新兴的 AI 技术中看到潜力。当时,数据和算力的爆发正推动机器学习的重大突破——这是 AI 的一个子领域,过去虽然有理论基础,但实际成果乏善可陈。Amodei 开始动手尝试这些技术,并意识到它们或许能代替那几千名研究者。“AI——我当时才刚刚开始看到它的潜力——在我看来,是唯一有可能弥合这个认知鸿沟的技术,”他说,“它有可能带领我们跨越人类的理解尺度。”

于是他离开了学术界,转向商业领域寻求推动 AI 的发展——因为企业有钱。起初他考虑创业,但最终更倾向于加入 Google,当时 Google Brain 是 AI 研究的主力部门,并且刚刚收购了 DeepMind。但中国的搜索引擎公司百度已经给了著名研究员 Andrew Ng(吴恩达)一笔 1 亿美元的预算,用于 AI 研究和部署。吴恩达正在组建一个“超级团队”,并联系了 Amodei。Amodei 产生了兴趣并提交了申请。

当 Amodei 的申请送达百度时,团队其实有些犹豫。“他的背景确实很强,但从我们的角度来看,他是生物背景,并不是做机器学习的。”早期团队成员 Greg Diamos 回忆说。但在看过 Amodei 在斯坦福写的代码后,他建议团队录用他:“我当时的想法是:能写出这种代码的人,一定是超级厉害的程序员。”于是,Amodei 在 2014 年 11 月加入了百度。

加入百度AI到瓦解,扩展规律浮出水面

有了百度的充沛资源,这支 AI 团队可以用大量算力和数据堆出更好的效果。他们果然看到了惊人的结果。Amodei 和他的同事发现,AI 模型的性能会随着模型规模、数据量和算力的增加而稳定提升。他们发表了一篇语音识别的论文,展示了模型规模与性能直接挂钩的关系。“这对我影响很大,因为我看到了非常平滑的趋势。”Amodei 回忆说。

Amodei 在百度的早期工作,帮助奠定了后被称作 “AI 扩展定律”(scaling laws) 的基础。其实这并非严格意义上的“定律”,更像是一种现象观察:只要继续加大模型规模、数据量和算力,AI 的表现就会可预测地提升。换句话说,不需要复杂新方法,只要一切都加大,AI 就会变得更好。“对我来说,这是我一生中见过最重要的发现。”Diamos 说。

直到今天,Amodei 可能仍是所有 AI 研究领导者中,对“扩展定律”信仰最坚定的那一位。其他同行,比如 DeepMind CEO Demis Hassabis 和 Meta 首席 AI 科学家 Yann LeCun,认为行业还需要一些根本性的新突破,才能达到类人智能。但 Amodei 则表现出几乎坚定的信念:路径已经清晰。当整个行业开始建设如小城市般规模的数据中心时,他已经预见到超级强大的 AI 即将到来。

“我看到的是指数曲线,”他说,“当你身处一条指数曲线上,很容易被它骗过去。在指数曲线彻底疯狂之前的两年,看起来它还只是刚刚开始。”

然而,百度 AI 团队的成功也埋下了瓦解的种子。公司内部开始爆发“地盘争夺战”,围绕技术控制权、知识产权和资源分配展开拉锯。最后,中国高层的干预促使团队核心成员集体出走,实验室随之解体。吴恩达本人拒绝对此置评。

玫瑰屋酒店邂逅马斯克、Ilya、奥特曼:OpenAI的研究总监

就在百度团队瓦解之际,Elon Musk 邀请 Amodei 及多位顶尖 AI 研究者,在门洛帕克的 Rosewood 酒店共进晚餐。这是后来广为人知的一次聚会。Sam Altman、Greg Brockman 和 Ilya Sutskever 也在场。Musk 看到 AI 潜力正在崛起,同时担忧 Google 将垄断控制权,于是决定资助一个新的竞争者,也就是后来的 OpenAI。Altman、Brockman 和 Sutskever 与他共同创办了这家研究机构。Amodei 当时有些犹豫,没有立刻加入,而是选择去了 Google Brain。

但在 Google 的十个月里,他陷入大公司体制的泥沼,逐渐动摇了。2016 年,他最终加入了 OpenAI,并开始投身 AI 安全研究。他早在 Google 就对技术失控的潜在风险产生担忧,并共同撰写了一篇关于 AI 不良行为可能性的论文。

就在 Amodei 加入 OpenAI 后不久,他的前 Google 同事们发布了一篇震撼行业的论文《Attention is All You Need》,首次提出了 transformer 架构,也就是如今生成式 AI 的基础。这种架构能极大加快训练速度、放大模型规模。尽管这项突破潜力巨大,但 Google 并没有立刻将其广泛应用。

而 OpenAI 则迅速行动。他们在 2018 年推出了第一个大型语言模型“GPT”(“T” 就代表 transformer)。虽然模型生成的文本仍有很多缺陷,但相较之前的语言生成方法已有显著提升。

Amodei 当时已是 OpenAI 的研究总监,主导了后续版本 GPT-2 的开发。GPT-2 实际上就是 GPT 的放大版,体量更大,能力更强。OpenAI 团队采用了 Amodei 帮助开发的一项技术:人类反馈强化学习(RLHF)来微调模型,引导其价值观。GPT-2 输出结果比 GPT 好得多,已经能初步具备改写、写作、答题的能力。此后,语言模型成为 OpenAI 的核心方向。

随着 Amodei 在 OpenAI 的影响力提升,围绕他也开始出现争议。他是个多产的写作者,常发表大量关于技术价值与方向的长文,部分同事觉得很鼓舞人心,但也有人觉得他是在“圈地标记”、掌控叙事。他曾写过一篇备受争议的备忘录,把公司分为“M 型公司”(面向市场)和“P 型公司”(面向公众),在公司内部引发讨论。有些人还觉得他过于强调技术保密和与政府合作,对不认可的项目评价尖锐。

尽管如此,OpenAI 依然把 GPT-3 项目的领导权交给了 Amodei,并划拨公司 50-60% 的计算资源给他去训练这个超大规模语言模型。GPT 到 GPT-2 的跨度已很大,是 10 倍体量增长;而 GPT-2 到 GPT-3 则是指数级飞跃,体量暴增 100 倍,成本达数千万美元。

结果令人震撼。《纽约时报》引用了多位独立研究者的评价,对 GPT-3 具备的代码编写、总结归纳、语言翻译能力感到惊讶。Amodei 在 GPT-2 发布时还比较克制,但这次他毫不掩饰激动之情:“它有一种‘涌现’特性,”他告诉《纽约时报》,“它似乎能理解你给它的提示,并完成这个故事。”

但此时,OpenAI 内部的裂痕也开始全面暴露……

分裂的开始:“熊猫帮”与高层的分歧

随着 GPT-3 的问世——第一个真正强大的语言模型——Amodei(达里奥·阿莫迪)意识到自己肩上的责任重大。在看到“规模定律”在多个领域都有效之后,他开始认真思考这项技术的走向,并对 AI 安全产生了更深的兴趣。

“他看着这项技术,心里认定它终将奏效,”OpenAI 时期的亲密同事 Jack Clark 对我说。“而一旦你认定它会奏效——也就是说它迟早会变得像人一样聪明——你就无法不担心它的安全问题。”

尽管 Amodei 负责 OpenAI 的模型开发,掌控了大量算力,但公司中很多关键决策并不归他掌控,比如模型何时发布、人事安排、技术如何部署、以及公司对外的公关姿态等。

“这些事情,”Amodei 说,“不是你光靠训练模型就能决定的。”

此时,Amodei 已经在 OpenAI 内部形成了一个紧密的小圈子,同事们戏称他们为“熊猫帮”,因为他很喜欢熊猫。而这个圈子在处理上述事务上的看法,与 OpenAI 的高层有着明显分歧。

这导致公司内部出现派系斗争,两个阵营之间的嫌隙不断加深,最后几乎到了水火不容的地步。

Nvidia CEO 黄仁勋曾批评说:“他认为 AI 太危险了,只有他们自己可以做。”

在我与 Amodei 的采访中,他没有掩饰自己的态度。“一个公司的领导者,必须是值得信赖的人,”他说。“他们的动机必须是真诚的,不管你在技术上推进得多快。如果你是在为一个不诚实、不真心想让世界变得更好的人工作,那一切都没意义。你只是让事情变得更糟。”

OpenAI 内部有些人认为 Amodei 倡导“AI 安全”,其实是为了掌控公司。但当他后来呼吁限制对中国的 GPU 出口时,黄仁勋再次表达了类似指责:“他认为 AI 太危险,除了他们没人能安全地开发。”

Amodei 回应道:“这是我听过最离谱的谎言。”他强调,自己始终希望通过推广 Anthropic 的安全实践,引发一场“向上竞争”。“我从未说过任何接近‘只有我们能做这项技术’的东西。我不明白别人怎么能从我说过的话里得出这个结论。这完全是恶意歪曲。”

Nvidia 也不甘示弱,发表声明回击(此前他们成功推动部分出口管制被撤销):“我们支持安全、负责任、透明的 AI。我们生态系统中的成千上万家初创公司和开源开发者都在推动 AI 的安全性提升。”发言人补充说:“游说政府对开源进行监管垄断,只会压制创新,使 AI 更加不安全,也不民主。这不是‘向上竞争’,更不是让美国赢的方法。”

OpenAI 也通过发言人回应道:“我们始终认为 AI 应该惠及所有人,而不是只由那些声称‘风险太大,只有他们能安全开发’的人垄断。”“随着技术的发展,我们在伙伴关系、模型发布、融资方面的决定已经成为行业标准,Anthropic 也在效仿。但我们始终专注于让 AI 安全、有用,并为尽可能多的人所用。”

时间一长,Amodei 派系和 OpenAI 高层之间的分歧已无可调和。“我们一半时间都在试图说服别人认同我们的观点,另一半才是真正的工作时间。”Jack Clark 说。

最终在 2020 年 12 月,Amodei、Clark、他妹妹 Daniela、研究员 Chris Olah 以及其他几位同事离开 OpenAI,决定另起炉灶。

另起炉灶:Anthropic 诞生十分之一的成本,打造顶尖模型

在 Anthropic 办公室的一间会议室里,Jack Clark 转动笔记本电脑,展示了他们最早期的一份文件——一张名字清单,候选名包括 Aligned AI、Generative、Sponge(海绵)、Swan(天鹅)、Sloth(树懒)、Sparrow Systems 等。Anthropic(意指“以人为中心、人本主义”)也赫然在列,而且这个域名在 2021 年初还是可注册的。团队在表格上写道:“我们喜欢这个名字,它不错。”就这样,Anthropic 诞生了。

Anthropic 成立于新冠疫情正高峰时,早期团队完全通过 Zoom 远程办公。最初的 15 到 20 人,后来每周会在旧金山的 Precita 公园野餐开会,自带椅子讨论业务。

公司早期的使命很简单:打造一流的大语言模型,实践最安全的开发方式,推动其他公司效仿,并将他们的研究经验公开发表(但不含核心模型细节)。

你可能觉得奇怪,这群自带椅子、公园里碰头的 20 人团队,为什么会有一种“命运共同体”的自信感?但在 Clark 看来,这正是 Anthropic 初期的氛围。“最奇怪的就是——对我们内部的人来说,这一切居然感觉如此‘理所当然’,”他说。“我们做过规模实验(Scaling Laws),我们已经看到模型变强的路径。”

前 Google CEO 埃里克·施密特(Eric Schmidt)是 Anthropic 最早的投资人之一。他通过当时的女友、现任妻子认识了 Amodei,两人起初在他还在 OpenAI 时讨论技术,后来在他创办 Anthropic 后谈到了投资。施密特告诉我,他投资的是这个人,而不是这个概念。

“到了这个层级,投资其实根本没什么数据可看,”他说。“你不知道营收是多少,不知道市场会怎么发展,也不知道产品是什么。所以你只能凭人来判断。Dario 是位杰出的科学家,他承诺会招来一批优秀科学家——他做到了。他还说只会建立一个很小的团队——这个倒没做到,现在公司很大了,变得跟普通公司差不多了。我原以为它只是个有趣的研究实验室。”

已垮台的 FTX 前 CEO Sam Bankman-Fried(SBF)也是 Anthropic 的早期投资人之一,据传他通过 FTX 投资了 5 亿美元,获得了 13.56% 的股份。SBF 是一位“有效利他主义者”,和 Anthropic 的早期理念相近,因此当时看似匹配。

Amodei 说,SBF 对 AI 安全很感兴趣,是个“多头看好派”,但也足够“危险信号频出”,因此他们没有给他董事席位,只给了不具投票权的股份。“他后来的行为,比我当时能想象到的极端和糟糕得多。”

Amodei 给潜在投资人的 pitch(推介)很简单:“我们可以用十分之一的成本,打造出顶尖的模型。”这个主张成功吸引了投资者。截至目前,Amodei 已为 Anthropic 融到了近 200 亿美元,其中包括来自亚马逊的 80 亿和 Google 的 30 亿。“投资人不是傻子,”他说。“他们很懂资本效率这个事。”

在 Anthropic 成立的第二年,OpenAI 推出 ChatGPT,把生成式 AI 带到大众面前;而 Anthropic 选择了另一条路。Amodei 决定主要把技术卖给企业用户。这一战略有两个好处:如果模型能解决实际问题,就能盈利;而企业客户的高要求也能倒逼公司不断改进技术。

“把一个模型从‘本科生水平’提升到‘研究生水平’的生物化学知识,可能普通用户没感觉,但对像辉瑞这样的制药公司来说,就很有价值,”Amodei 说。“这会让我们更有动力把模型做得更强。”

讽刺的是,真正让企业开始关注 Anthropic 技术的,却是它推出的一个面向普通用户的产品。2023 年 7 月,公司发布了 Claude 聊天机器人,晚于 ChatGPT 近一年,但因其“高情商风格”和温和语调广受好评(这其实是其安全机制的副产品)。

那之前,公司一直希望控制在 150 人以内,但 Claude 推出后,公司迎来爆发式增长。“就是 Claude 的那一刻,公司开始真正扩张了,”Clark 回忆说。

Claude 意外成为一门生意

Amodei 押注将 AI 用于企业场景,如今已吸引大批热情的客户。Anthropic 已向多个行业销售其大型语言模型——包括旅游、医疗、金融服务、保险等,客户包括辉瑞制药、联合航空和美国国际集团(AIG)。比如,生产 Ozempic 的诺和诺德公司(Novo Nordisk)现在使用 Anthropic 的技术,将原本需要 15 天编制的监管报告压缩到 10 分钟完成。

“我们打造的技术,解决了许多人对工作中最痛苦部分的抱怨。”Anthropic 的营收负责人 Kate Jensen 表示。

与此同时,程序员对 Anthropic 爱不释手。公司一开始就聚焦于 AI 代码生成,一方面能加快模型自身研发,另一方面只要效果够好,程序员会迅速采用。果然,代码应用爆发式增长,也带动了类似 Cursor 等 AI 编程工具的流行。Anthropic 也加入了代码工具赛道,并在 2025 年 2 月发布了 Claude Code 编程助手。

随着 AI 使用激增,公司的营收也水涨船高。“Anthropic 每年的收入都是 10 倍增长。”Amodei 说,“我们从 2023 年的零收入做到了 1 亿美元;2024 年从 1 亿增长到 10 亿;而到了 2025 年上半年,我们已经从 10 亿增长到了目前超过 40 亿,可能是 45 亿美元。”这个数字是按月收入年化计算的。

Anthropic 表示,其 8 位数和 9 位数的大单在 2025 年比 2024 年增加了三倍,企业客户的平均支出也增加了五倍。

但这家公司为了训练和运行模型付出了巨额代价,这也引发了它的商业模式是否可持续的质疑。Anthropic 目前严重亏损,预计今年将亏损约 30 亿美元,而且其毛利率 reportedly 也低于典型的云软件公司。

有些客户已经注意到产品上的变化。有一位创业公司创始人告诉我,虽然 Anthropic 的模型是他业务上最合适的选择,但服务太常中断,没法依赖。而编程平台 Replit 的 CEO Amjad Masad 则说,Anthropic 的使用成本已经停止下降,之前价格还在不断走低。

Claude Code 最近也刚刚加强了速率限制,因为部分开发者使用过猛,公司已无法盈利。开发者 Kieran Klaassen 告诉我,他一个月就用掉了价值 $6,000 的 Claude API,但他只付了 Max 套餐的 $200。Klaassen 表示,他常常同时运行多个 Claude 智能体。“真正的限制在于你的大脑切换能力。”他说。

对此,Amodei 表示,随着模型性能提升,如果价格不变,客户将以同样价格买到“更多智能”。他也指出,AI 实验室才刚开始优化“推理”(即模型使用过程),这应该会带来效率提升。这个问题值得关注——多位业内人士告诉我,要让这个行业商业上说得通,推理成本必须大幅下降。

Anthropic 的高管在采访中暗示:产品太受欢迎不是最糟的问题。开放的问题在于,生成式 AI 以及支撑它的“扩展法则”是否能像其他技术一样,随着时间推移带来成本下降,还是它是一种拥有全新成本结构的全新技术?唯一确定的是,要弄清这个问题,还需要花更多的钱。

十亿美元的汇款:DeepSeek大火之际,资本还是投了

2025 年年初,Anthropic 急需资金。整个 AI 行业为了“扩展”,疯狂建设数据中心、采购算力设备,为此一次次刷新初创公司融资纪录。Meta、Google 和 Amazon 等老牌巨头则靠自己的利润和数据中心优势造模型,让竞争压力陡增。

Anthropic 有特别理由需要持续加码。如果没有像 ChatGPT 那样的王牌应用,用户习惯性反复使用,它的模型就必须在特定场景中领先,否则就会被竞争对手取代。“尤其是在企业和代码领域,领先六个月到一年,就是巨大的优势。”Box 的 CEO、Anthropic 客户 Aaron Levie 表示。

于是,Anthropic 找到了资深风投、Lightspeed 合伙人 Ravi Mhatre,来主导一轮 35 亿美元的融资。Mhatre 过去最多写 500 万到 1000 万美元的支票,而这次要写的将是他公司有史以来最大的一笔。“Amazon 上市时市值才 4 亿美元。”他说,“4 亿!你现在想想看。”

融资如期推进之际,一款低价但性能不错的开源 AI 模型横空出世。中国对冲基金 High Flyer 发布了 DeepSeek R1,一款高效、智能、开源的推理模型,定价仅为同行的四十分之一。DeepSeek 的问世震惊了商界,多位万亿美元市值企业 CEO 紧急发推贴维基百科链接安抚投资人。

而此时,Mhatre 已完成一份详尽分析报告,得出一个结论:AI 模型本身(而非聊天机器人)将产生最大商业价值。他估算,打造出可完成“知识工作”的人工智能公司,其营收将是目前大型云平台的 10 倍,总市场规模在 15 到 20 万亿美元之间。

“所以你反过来算,就会问,在 600 亿或 1000 亿估值上,能不能拿到风投风格的回报?当然能。”他说,“有时你得用自上而下的方式估算市场规模。”

DeepSeek 的发布意味着:开源、高效、表现接近的模型可能会挑战巨头。但 Amodei 不这么看。他更关注的是:“任何新模型有没有比 Anthropic 的更强?”他指出,即使你能下载模型,也仍需部署到云平台并运行,这仍然需要专业技能和资金。

在 DeepSeek 大火之际,Amodei 把这些观点讲给 Mhatre 和 Lightspeed 的合伙人听,成功说服他们相信,只要规模足够,Anthropic 也能吸收并超越 DeepSeek 的创新。那周一,英伟达股价暴跌 17%,投资人恐慌抛售 AI 基础设施股票。在不确定中,Mhatre 做出决定:

“我不骗你,那天真的极度紧张。”Mhatre 说,“那周一,我们汇出了 10 亿美元。”

再次融资在即

在“DeepSeek 周一”过去六个月后,Anthropic 再次谋划扩张。公司正在洽谈一轮可能高达 50 亿美元的新融资,估值将翻倍至 1500 亿美元。潜在投资方包括一些中东海湾国家,Anthropic 之前曾试图与这些国家保持距离。但在已经从 Google、Amazon 和 Lightspeed 等风投筹得近 200 亿美元之后,公司已经快找不到更大的“金主”。

在公司内部 Slack 中,一条被《连线》刊载的消息显示,Amodei 对此表示出某种无奈:“‘不能让任何坏人因我们的成功获利’——这条原则,很难真正拿来经营公司。”

和 Amodei 交谈后,我不禁思考,这场 AI 冲刺究竟会如何收场。或许模型最终会强大到成为标准化商品;又或许,正如 Amodei 的前同事 Ilya Sutskever 所说,规模竞赛最后会让地球布满太阳能板和数据中心。

当然,还有一个 AI 信徒不愿面对的可能性:AI 进步最终陷入平台期,投资人遭遇历史级别的血洗。

加速前进

在 Anthropic 今年 5 月举办的首场开发者大会上,我坐在离舞台不远的位置,等待 Amodei 的登场。这家公司把活动场地“Midway”——一个位于旧金山 Dogpatch 区的宽敞艺术活动空间——挤满了开发者、媒体记者,以及其如今超过 1000 人的员工队伍。大家都在期待 Anthropic 会发布 Claude 4,这个最新、最强大的模型。

Amodei 上台后,宣布了 Claude 4 的发布。他没有使用炫酷的 PPT 或视频,而是拿起手持麦克风,读着笔记本电脑上的内容,简要介绍之后便把话筒交给了产品负责人 Mike Krieger。观众们似乎对这种低调而实在的风格颇为买账。

对我来说,比起新模型的更新,Amodei 对“接下来会发生什么”的承诺更值得注意。整场活动中,他多次提到 AI 的发展正在加速,Anthropic 的模型迭代速度将越来越快。“我不确定具体会有多频繁,”他说,“但节奏正在提速。”

正如 Amodei 之前告诉我的,Anthropic 一直在开发 AI 编程工具,用来加快模型训练和部署流程。

当我把这个话题提给联合创始人兼首席科学家 Jared Kaplan 时,他表示这些工具确实起到了作用:“我们公司里大多数工程师都在使用 AI 来提升生产力,”他说,“这确实大大加快了我们的开发效率。”

在 AI 理论中,有一个叫做“智能爆炸”的概念,指的是 AI 模型具备改进自身的能力,从而——轰的一声——迅速自我强化,变得无所不能。Kaplan 并不否认这种方式有可能实现智能爆炸,甚至认为也许人类协助版的智能爆炸会更早到来。

“也许两三年后就会发生,也可能更久,甚至更久,”Kaplan 说,“但当我说‘AI 能完成大多数知识工作’的概率是 50%,我们训练 AI 模型本身也正是知识工作的一部分。”

“也许像我这样的人将来也没什么可干了,”Kaplan 补充道,“当然事情没有这么简单,但我们大概率正走向这样的未来。”

此刻,Amodei 对安全的执念就显得格外合理了。虽然没有任何 Anthropic 的员工明确表示“智能爆炸”已迫在眉睫,但可以明显感受到他们并不排斥朝这个方向推进。如果 AI 会越来越强,甚至越来越快地变强,那么对潜在风险保持谨慎就是必要的。

某种程度上,这些理论性的说法当然也帮助了 Anthropic 向医药公司、软件开发者推销其服务。但现在的 AI 模型确实已经可以写出不错的代码了,这些言论听起来也不再那么天方夜谭。

向上竞争:把问题摊开说,赢的人是谁不重要

2024 年,OpenAI 的“超级对齐”团队前负责人 Jan Leike 跟随 Amodei 加入了 Anthropic,成为对齐科学团队的联合主管。所谓“对齐”,是指将 AI 系统的行为调整到符合人类价值观与目标的方向。Leike 认为,一旦 AI 真如预期般爆发式发展,这种对齐工作将至关重要。

“我们可能会迎来一个快速提升能力的时期,”Leike 对我说,“你绝对不希望在一个能自我改进的系统上,失去控制或者无法扩展。”

事实上,Anthropic 和其他公司已经发现,在模拟环境中测试时,AI 有时会表现出令人担忧的“自我保存”倾向。比如在 Claude 4 的文档中,Anthropic 写道:该模型曾在测试中多次试图“勒索”工程师,以避免被关闭。

“你绝对不希望在一个能自我改进的系统上,失去控制或者无法扩展。”——Jan Leike

Anthropic 还指出,他们的 AI 在评估者可能会重新设定其价值观时,会试图欺骗对方。在另一次模拟中,该模型还试图“自我复制”,逃出 Anthropic 的系统基础设施。Leike 表示,团队正在通过奖励系统来抑制这类行为,但这仍属于实验性领域。

Amodei 的“向上竞争”策略,就是要把这些问题摊开来说。他不仅资助了解释性研究(即研究 AI 模型内部机制的科学),还推动制定了《负责任的扩展政策》,即根据模型的风险设定发布和训练的边界。这套框架也已启发了业界的其他参与者。

“我所谓的‘向上竞争’,意思是赢的人是谁不重要,”Amodei 说,“大家都赢,才是目标。”

减速派,还是加速派?

Amodei 投入 AI 的动力,最初源于父亲之死带来的打击,而如今,他的目标似乎近在眼前。当下的 AI 已经能加速药品开发的文书流程,在失衡的医疗体系中充当“半吊子”医学顾问;而如果一切顺利,它未来也许能顶替成百上千的科研人员,解码人类生物学的奥秘。

我问 Amodei,这样对愿景的执着,会不会让他忽视了技术失控的风险?他答道:

“我不是那样看问题的。我们每发布一个新模型,控制能力都在提升。是的,会出问题,但我们会非常严苛地压力测试这些模型。”

对这种问题的追问,在 Amodei 看来,其实是源于他经常被贴上的“悲观拖慢派”标签。但他的策略恰恰是相反的——加速推进。

“我之所以要强调风险,正是为了我们不必被迫减速,”他说。“我对这一切的利害关系有极其深刻的理解。不仅是能带来的好处,还有它能做什么,能挽救多少生命。这些,我是亲眼见过的。”

好文,文章到这里结束了。如果各位大佬对于目前OpenAI、Anthropic等公司的做法和未来发展有哪些看法,欢迎评论区拍砖。

参考链接:https://medium.com/@kantrowitz/the-making-of-anthropic-ceo-dario-amodei-449777529dd6

相关资讯

联手OpenAI,吴恩达推出一门o1推理新课程,还免费

在刚刚过去的 2024 年,OpenAI 推出了 o 系列模型。 相比于以往大型语言模型,o 系列模型使用更多的计算进行更深入的「思考」,能够回答更复杂、更细致的问题。 通过在推理时执行思维链推理,o 系列模型在新兴用例中表现出色,包括多步骤规划、图像推理和长期编码。
1/2/2025 2:23:00 PM
机器之心

AI时代如何避免被淘汰?吴恩达:成为职场「10倍专业人士」

昔日的职场法则正在被疯狂刷新的技术浪潮打乱,前一秒还风光无限的岗位,下一秒就可能会被AI重塑。 大厂裁员、行业洗牌,打工人要如何面对这些焦灼与不安? 不妨让我们看看著名人工智能科学家、教育家吴恩达教授的观点。
2/17/2025 2:38:04 PM
新智元
  • 1