AI在线 AI在线

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

开源社区的人应该对 vLLM 不陌生,它是一个由加州大学伯克利分校团队开发的高性能、开源 LLM 推理和服务引擎,核心目标是提升 LLM 的推理速度(吞吐量)和资源利用率(尤其是内存),同时兼容 Hugging Face 等流行模型库。 简单来说,vLLM 能让 GPT、Mistral、LLaMA 等主流模型系列跑得更快、消耗更少资源,取得这些效果的关键是其创新的注意力机制实现方案 ——PagedAttention。 近日,DeepSeek AI 研究者、深度学习系统工程师俞星凯从零开始构建了一个轻量级 vLLM 实现 ——Nano-vLLM,将代码简化到了 1200 行。

开源社区的人应该对 vLLM 不陌生,它是一个由加州大学伯克利分校团队开发的高性能、开源 LLM 推理和服务引擎,核心目标是提升 LLM 的推理速度(吞吐量)和资源利用率(尤其是内存),同时兼容 Hugging Face 等流行模型库。

简单来说,vLLM 能让 GPT、Mistral、LLaMA 等主流模型系列跑得更快、消耗更少资源,取得这些效果的关键是其创新的注意力机制实现方案 ——PagedAttention。

近日,DeepSeek AI 研究者、深度学习系统工程师俞星凯从零开始构建了一个轻量级 vLLM 实现 ——Nano-vLLM,将代码简化到了 1200 行。

目前,该项目在 GitHub 上收获了 200 多的 Star。

图片

GitHub 地址:https://github.com/GeeeekExplorer/nano-vllm/tree/main

具体来讲,Nano-vLLM 具有以下三个核心功能:

一是,Fase 离线推理。推理速度与 vLLM 相当。

二是,易读代码库。实现非常简洁,Python 代码减少到了 1200 行以下。

三是,优化套件。提供 Prefix 缓存、Torch 编译、CUDA 计算图等功能。

俞星凯在基准测试中采用了以下测试配置:

  • 硬件:RTX 4070
  • 模型:Qwen3-0.6B
  • 总请求:256 个序列
  • 输入长度:100–1024 tokens 之间随机采样
  • 输出长度:100–1024 tokens 之间随机采样

基准测试结果如下表所示,Nano-vLLM 与 vLLM 的输出 token 相同,时间略长,推理速度(吞吐量)稍逊一点点。整体而言,二者表现相当。

图片

作者简介

Nano-vLLM 开发者俞星凯目前就职于 DeepSeek,参与过 DeepSeek-V3 和 DeepSeek-R1 的开发工作。

图片

有意思的是,根据其 GitHub 主页,他还曾开发过一个植物大战僵尸 Qt 版,该项目也已经收获了 270 多星。此外,由于毕业于南京大学,他还曾参与了不少南京大学的计算机项目,包括南京大学计算机图形学绘图系统、南京大学分布式系统 Raft 算法最简实现、南京大学操作系统 OSLab 等。

而根据其 LinkedIn 页面可知,他曾先后在腾讯、幻方(DeepSeek 母公司)和字节跳动实习过。2023 年后入职 DeepSeek 成为深度学习系统工程师。

图片

你是 vLLM 用户吗?会考虑尝试 Nano-vLLM 吗?

相关资讯

清华特奖得主团队视频生成AI一夜刷屏!100%开源+61页技术报告,还能无限扩展生成,网友:游戏规则改变者

整整61页的技术报告中还详细介绍了创新的注意力改进和推理基础设施设计,给人一种视频版DeepSeek的感觉。 图片Magi-1将视频生成卷到了新高度,大片级品质直接锁住大家的眼球,请看VCR:其主打能力,一是无限长度扩展,实现跨时间的无缝连贯叙事:图片二是能将生成时长控制精确到每一“秒”:图片另外,Magi-1对物理规律也有更深度的理解,Physics-IQ基准测试56.02%,大幅领先一众顶流。 现在看这张图,Sora的时代是真的过去了。
4/22/2025 3:29:05 PM

准确率92.7%逼近Claude 3.5、成本降低86%,开源代码定位新神器LocAgent来了

又是一个让程序员狂欢的研究! 来自 OpenHands、耶鲁、南加大和斯坦福的研究团队刚刚发布了 LocAgent—— 一个专门用于代码定位的图索引 LLM Agent 框架,直接把代码定位准确率拉到了 92.7% 的新高度。 该研究已被 ACL 2025 录用。
5/29/2025 9:18:20 AM

Kimi新模型拿下代码开源SOTA,仅仅72B,发布即开源

深夜,沉寂已久的Kimi突然发布了新模型——开源代码模型Kimi-Dev,在SWE-bench Verified上以60.4%的成绩取得开源SOTA。 参数量只有72B,但编程水平比最新的DeepSeek-R1还强,和闭源模型比较也表现优异。 有网友看到后表示,感觉月之暗面的实力被低估了,其水平应该比xAI强。
6/17/2025 9:07:24 AM
  • 1