AI在线 AI在线

字节跳动推出 AIBrix:全新开源推理系统专为大语言模型设计

字节跳动近日宣布开源其最新研发的 AIBrix 推理系统。 这一系统特别为 vLLM 推理引擎打造,目标是提供一个可扩展且高性价比的推理控制面,满足企业日益增长的 AI 需求。 AIBrix 的推出标志着一个新阶段的开始,项目团队希望通过这一开源项目为构建可扩展的推理基础设施奠定基础。

字节跳动近日宣布开源其最新研发的 AIBrix 推理系统。这一系统特别为 vLLM 推理引擎打造,目标是提供一个可扩展且高性价比的推理控制面,满足企业日益增长的 AI 需求。

AIBrix 的推出标志着一个新阶段的开始,项目团队希望通过这一开源项目为构建可扩展的推理基础设施奠定基础。该系统提供了一整套云原生解决方案,致力于优化大语言模型的部署、管理和扩展能力。特别是它对企业级需求进行了深度适配,确保用户在使用时能够享受到更高效的服务。

image.png

在功能方面,首版 AIBrix 聚焦于几个核心特点。首先是高密度的 LoRA(低秩适应)管理,这一功能旨在简化轻量级模型的适配支持,使得用户可以更便捷地管理模型。其次,AIBrix 提供了 LLM 网关和路由功能,能够高效管理和分配多个模型和副本的流量,从而确保请求能够迅速而准确地到达目标模型。此外,针对 LLM 应用的自动扩展器也能够根据实时需求动态调整推理资源,提高系统的灵活性和响应速度。

字节跳动的 AIBrix 团队表示,他们计划通过扩展分布式 KV 缓存、引入传统资源管理原则、以及基于性能分析提升计算效率等手段,继续推进系统的演进和优化。

相关资讯

摩尔线程 MUSA 架构强势适配 llama.cpp,助力 AI 推理新纪元!

在全球人工智能技术飞速发展的今天,摩尔线程(Moore Threads)又有了新的突破! 其自主研发的通用并行计算架构 MUSA(Meta-computing Unified System Architecture)日前宣布,成功适配了开源推理框架 llama.cpp。 这一成就不仅展示了摩尔线程在 AI 生态系统中的进一步布局,也为广大开发者提供了更为高效的推理工具。
8/8/2025 7:39:51 AM
AI在线

深度解析:通过 AIBrix 多节点部署 DeepSeek-R1 671B 模型

原文链接: AIBrix 分布式推理平台实现 DeepSeek-R1 671B 的多节点部署。 DeepSeek-R1 通过渐进式训练框架展现出优秀的逻辑推理能力 —— 在 6710 亿总参数量中,其动态激活的 370 亿参数与 128k 上下文窗口,使其在复杂任务处理中表现卓越。 然而,如此庞大的模型规模对部署环境提出了严苛挑战,尤其是分布式推理的资源调度与性能优化。
4/3/2025 6:30:00 AM
字节跳动开源

AIBrix v0.4.0 发布:P/D 解耦与专家并行支持、KVCache v1 连接器、KV 事件同步与多引擎支持

AIBrix项目作为大模型推理的可扩展且高性价比的技术方案,项目于2025 年 2 月 21 日正式开源,并通过vLLM 官方博客官宣,为 vLLM 推理引擎提供可扩展且高性价比的控制面。 开源 72 小时内,AIBrix 收获的 GitHub Star 数已超 1K,96 小时突破 2K;开源一周左右,AIBrix 保持在 GitHub trending[1]榜第一的位置。 目前 GitHub Star 已超过 4K,贡献者超过 70 人。
8/21/2025 9:02:56 AM
AIBrix团队
  • 1