AI在线 AI在线

互联网女皇AI趋势报告:AI模型训练成本超高,但推理成本断崖式下降

根据互联网女皇发布的AI趋势报告的深度分析,人工智能(AI)模型的计算经济学正经历着一场关键的转变。 报告指出,训练最强大的大型语言模型(LLM)已成为人类历史上最昂贵、资本最密集的投入之一,目前每个模型的训练成本往往超过1亿美元。 Anthropic首席执行官Dario Amodei在2024年中指出,目前有模型正在训练,其成本接近10亿美元,并预测到2025年,训练成本高达100亿美元的模型可能会出现。

根据互联网女皇发布的AI趋势报告的深度分析,人工智能(AI)模型的计算经济学正经历着一场关键的转变。报告指出,训练最强大的大型语言模型(LLM)已成为人类历史上最昂贵、资本最密集的投入之一,目前每个模型的训练成本往往超过1亿美元。Anthropic首席执行官Dario Amodei在2024年中指出,目前有模型正在训练,其成本接近10亿美元,并预测到2025年,训练成本高达100亿美元的模型可能会出现。

image.png

然而,互联网女皇AI趋势报告同时强调,运行模型的推理成本(即模型生成预测、答案或内容)正在迅速下降。报告引用英伟达的数据显示,其2024年发布的Blackwell GPU生成每个token所需的能量比2014年的Kepler GPU前身低了105,000倍。斯坦福HAI的数据进一步揭示,在两年内,AI推理的客户价格(每百万token)下降了99.7%。这种成本效益的提高,速度远超此前的电力和计算机内存等关键技术。

image.png

这种推理成本的急剧下降和模型可访问性的提高,使得AI的实验成本降低,迭代速度加快。互联网女皇AI趋势报告认为,这使得产品化对于几乎所有有想法的人都变得可行,从而导致了开发者活动的激增。例如,Meta的Llama模型在八个月内的下载量增加了3.4倍。此外,报告指出,尽管模型成本不同,但AI模型的性能正在迅速趋于收敛,顶级前沿模型与更小、更高效模型之间的差距正在缩小。

报告总结称,AI的这种经济学演变正在引发一场“创造力的大爆发”。开发者可以根据技术或财务需求选择最合适的模型,而非受限于单一供应商,这正在重塑AI模型提供商的商业模式,迫使它们重新思考如何实现盈利。

相关资讯

英伟达展示新一代 AI 芯片,重点关注 Blackwell 系列 GPU

在即将召开的年度开发者大会上,英伟达首席执行官黄仁勋将展示公司最新的人工智能(AI)和量子计算芯片。 这次大会将在加州圣荷西的 SAP 中心举行,预计将吸引大量观众。 行业观察人士普遍认为,黄仁勋会重点介绍英伟达最新的 Blackwell 系列图形处理单元(GPU),以及即将推出的新产品。
3/18/2025 2:56:00 PM
AI在线

消息称 DeepSeek-R2 AI 模型开发进程因美国当局英伟达 H20 芯片出口限制而延迟

由于美国当局对英伟达H20芯片的出口限制,DeepSeek R2 AI模型的开发进程被迫延迟。这不仅影响了新模型的研发,也对现有R1模型的实际部署造成困扰。#AI芯片# #DeepSeek#
6/27/2025 8:09:47 AM
漾仔

美国科技巨头投资英国 AI 领域,计划投入450亿美元

在美国总统特朗普的国事访问期间,微软和英伟达宣布将在英国经济中投资高达450亿美元,此举将有助于建设更多的数据中心以及推动人工智能领域的研发。 这项投资是在特朗普访问英国期间提出的,预计还将促进美英之间的科技合作。 图源备注:图片由AI生成,图片授权服务商Midjourney微软承诺在未来四年内投入300亿美元用于人工智能基础设施的建设,这也是该公司迄今为止在英国最大的财务承诺,预计将占本周宣布总投资的三分之二。
9/17/2025 10:37:03 AM
AI在线