AI在线 AI在线

5000万美元种子轮融资!斯坦福教授创立Inception,用“扩散式大模型”挑战GPT-5,代码生成速度超1000 token/秒

当全球AI竞赛仍围绕自回归大模型(如GPT-5、Gemini)激烈缠斗时,一家新锐初创公司正以颠覆性架构悄然突围。 由斯坦福大学教授Stefano Ermon领衔的AI公司Inception近日宣布完成5000万美元种子轮融资,由Menlo Ventures领投,微软M12、英伟达NVentures、Snowflake Ventures、Databricks Investment及Mayfield跟投,吴恩达(Andrew Ng)与Andrej Karpathy亦以天使投资人身份加入,阵容堪称豪华。 Inception的核心押注,是将原本用于图像生成的扩散模型(Diffusion Models)全面引入文本与代码领域,挑战当前主流的自回归范式。

当全球AI竞赛仍围绕自回归大模型(如GPT-5、Gemini)激烈缠斗时,一家新锐初创公司正以颠覆性架构悄然突围。由斯坦福大学教授Stefano Ermon领衔的AI公司Inception近日宣布完成5000万美元种子轮融资,由Menlo Ventures领投,微软M12、英伟达NVentures、Snowflake Ventures、Databricks Investment及Mayfield跟投,吴恩达(Andrew Ng)与Andrej Karpathy亦以天使投资人身份加入,阵容堪称豪华。

Inception的核心押注,是将原本用于图像生成的扩散模型(Diffusion Models)全面引入文本与代码领域,挑战当前主流的自回归范式。Ermon指出,GPT、Gemini等模型采用“逐词预测”方式,必须串行处理,限制了速度与效率;而扩散模型通过并行迭代优化整体输出,在处理大规模代码库或长文本时展现出显著优势。

这一理念已落地为产品:公司同步发布其最新模型Mercury,专为软件开发场景设计,目前已集成至ProxyAI、Buildglare、Kilo Code等多款开发者工具。实测显示,Mercury在代码补全、重构与跨文件理解任务中,推理速度突破1000token/秒,远超现有自回归模型。“我们的架构天生为并行而生,”Ermon强调,“它更快、更高效,且对算力成本极度友好。”

为何扩散模型适合代码?

代码不同于自然语言——它结构严谨、依赖全局上下文,且常需跨文件关联。自回归模型在处理此类任务时,易因“逐字生成”而忽略整体逻辑一致性。而扩散模型从“噪声”出发,通过多轮全局调整逼近目标输出,天然适合高结构化数据。此外,其并行计算特性可充分利用GPU/TPU集群,显著降低延迟与能耗,直击当前AI基础设施高成本痛点。

巨头为何押注?

在AI训练与推理成本飙升的背景下,效率成为新战场。微软、英伟达、Databricks等投资方均在构建AI开发栈,亟需高性能、低开销的模型底座。Inception的路径,或为大模型商业化提供一条“省算力、高吞吐”的新出路。

AIbase认为,Inception的崛起标志着AI架构探索进入深水区——当参数竞赛边际效益递减,底层范式创新将成为破局关键。如果扩散式LLM能在代码、科研、金融等高价值场景持续验证其优势,这场由斯坦福实验室发起的技术革命,或将重塑生成式AI的未来版图。

相关资讯

OpenAI秘密启动“Mercury”项目:聘百名前银行家,训练AI系统自动化金融建模

Mercury”(水星)**的雄心勃勃的内部项目,旨在将初级投资银行家通常处理的重复性任务自动化,目标直指华尔街的核心基础工作。 据彭博社报道,OpenAI 已秘密聘请了 100多名前银行家和金融专家,利用他们专业的金融建模经验来训练其人工智能系统。 该项目的最终目标是教会 AI 如何独立生成复杂的金融模型,从而有望省去初级分析师耗费数小时进行的繁琐基础工作。
10/22/2025 10:01:10 AM
AI在线

英伟达与MIT合作推出 Fast-dLLM 框架,AI 推理速度提升 27.6 倍

近日,科技巨头英伟达联合麻省理工学院(MIT)与香港大学,发布了名为 Fast-dLLM 的新框架。 这一创新的框架旨在显著提高扩散模型(Diffusion-based LLMs)的推理速度,最高可达27.6倍,为人工智能的应用提供了更为强大的技术支持。  扩散模型的挑战与机遇扩散模型被视为传统自回归模型(Autoregressive Models)的有力竞争者。
6/3/2025 2:00:54 PM
AI在线

扩散模型也能推理时Scaling,谢赛宁团队重磅研究可能带来文生图新范式

对于 LLM,推理时 scaling 是有效的! 这一点已经被近期的许多推理大模型证明:o1、o3、DeepSeek R1、QwQ、Step Reasoner mini…… 但这个说法也适用于扩散模型吗? 近日,纽约大学谢赛宁领导的一个团队对这一方向进行了探索。
1/18/2025 6:47:00 PM
机器之心
  • 1