当全球AI竞赛仍围绕自回归大模型(如GPT-5、Gemini)激烈缠斗时,一家新锐初创公司正以颠覆性架构悄然突围。由斯坦福大学教授Stefano Ermon领衔的AI公司Inception近日宣布完成5000万美元种子轮融资,由Menlo Ventures领投,微软M12、英伟达NVentures、Snowflake Ventures、Databricks Investment及Mayfield跟投,吴恩达(Andrew Ng)与Andrej Karpathy亦以天使投资人身份加入,阵容堪称豪华。
Inception的核心押注,是将原本用于图像生成的扩散模型(Diffusion Models)全面引入文本与代码领域,挑战当前主流的自回归范式。Ermon指出,GPT、Gemini等模型采用“逐词预测”方式,必须串行处理,限制了速度与效率;而扩散模型通过并行迭代优化整体输出,在处理大规模代码库或长文本时展现出显著优势。
这一理念已落地为产品:公司同步发布其最新模型Mercury,专为软件开发场景设计,目前已集成至ProxyAI、Buildglare、Kilo Code等多款开发者工具。实测显示,Mercury在代码补全、重构与跨文件理解任务中,推理速度突破1000token/秒,远超现有自回归模型。“我们的架构天生为并行而生,”Ermon强调,“它更快、更高效,且对算力成本极度友好。”
为何扩散模型适合代码?
代码不同于自然语言——它结构严谨、依赖全局上下文,且常需跨文件关联。自回归模型在处理此类任务时,易因“逐字生成”而忽略整体逻辑一致性。而扩散模型从“噪声”出发,通过多轮全局调整逼近目标输出,天然适合高结构化数据。此外,其并行计算特性可充分利用GPU/TPU集群,显著降低延迟与能耗,直击当前AI基础设施高成本痛点。
巨头为何押注?
在AI训练与推理成本飙升的背景下,效率成为新战场。微软、英伟达、Databricks等投资方均在构建AI开发栈,亟需高性能、低开销的模型底座。Inception的路径,或为大模型商业化提供一条“省算力、高吞吐”的新出路。
AIbase认为,Inception的崛起标志着AI架构探索进入深水区——当参数竞赛边际效益递减,底层范式创新将成为破局关键。如果扩散式LLM能在代码、科研、金融等高价值场景持续验证其优势,这场由斯坦福实验室发起的技术革命,或将重塑生成式AI的未来版图。