AI在线 AI在线

推理引擎

GMI Cloud 于 WAIC 2025 展现全栈 AI 基建实力,破解出海成本与效率难题

2025 年世界人工智能大会(WAIC)于 7 月 26 日至 29 日在上海世博展览馆盛大开展,全球领先的 AI Native Cloud 服务商 GMI Cloud 在此次大会上精彩亮相。 作为全球六大 Reference Platform NVIDIA Cloud Partner 之一,GMI Cloud 携全栈产品矩阵、创新工具及前沿技术成果,在 H1 核心技术馆 A122 展位及 H4 FUTURE TECH 创新企业展区,通过产品展示、技术体验、专家分享、跨界互动等多元形式,与全球开发者、AI 企业及生态伙伴共探 AI 算力新未来,成为展会焦点之一。 在本次大会上,GMI Cloud 集中展示了三大核心产品,为观众打造了沉浸式的 AI 基础设施交互体验。
7/29/2025 6:07:22 PM
云昭

LLM 推理引擎综述:优化与效率的多维探索

大家好,我是肆〇柒,玩开源模型蛮久了,做开源模型项目的各位,应该都了解推理引擎在工程落地上的重要性。 一个好的推理引擎,不仅要具备算力的精准调度能力,还需要符合工程基线的稳定性指标,更重要的,还要保障模型的推理精度符合业务标准。 然而,随着模型规模的指数级膨胀,如何高效地部署和运行这些模型,成为了技术发展道路上的关键挑战。
6/11/2025 2:30:00 AM
肆零柒

DeepSeek推理引擎开源新路径,助力vLLM生态再升级

最近,DeepSeek 宣布了一项重要决定:将其自研的推理引擎进行开源,但并不会直接向公众开放完整的代码库。 相反,他们选择与现有的开源项目 vLLM 合作,致力于分享核心的优化成果。 这一举动旨在解决开源社区中普遍存在的代码库分歧、基础设施依赖及维护资源有限等难题。
4/16/2025 2:01:15 PM
AI在线

Pipeshift推出模块化推理引擎,实现AI推理GPU使用率降低75%

近日,初创公司 Pipeshift 推出了一款全新的端到端平台,旨在帮助企业更高效地训练、部署和扩展开源生成式 AI 模型。 该平台不仅可以在任何云环境或本地 GPU 上运行,还能够显著提升推理速度和降低成本。 随着 AI 技术的迅猛发展,许多企业面临着如何在多种模型之间高效切换的挑战。
1/24/2025 10:04:00 AM
AI在线

从本地部署到企业级服务:十种主流LLM推理框架的技术介绍与对比

大语言模型(Large Language Models, LLMs)的部署是一项具有技术挑战性的工作。 随着模型架构日益复杂,以及硬件需求不断提升,部署过程变得愈发复杂。 业界已经发展出多种解决方案,使LLM的部署和扩展变得更加便捷。
12/2/2024 2:41:00 PM
Gautam Chutani
  • 1