AI在线 AI在线

Ollama 上线自研多模态 AI 引擎:逐步摆脱 llama.cpp 框架依赖,本地推理性能飙升

Ollama推出自研多模态AI引擎,摆脱对llama.cpp的依赖,优化本地推理性能,支持大图像处理和复杂模型。新引擎引入图像处理元数据、KVCache优化等技术,联合NVIDIA等硬件巨头优化内存管理。#AI技术# #本地推理#

科技媒体 WinBuzzer 昨日(5 月 16 日)发布博文,报道称开源大语言模型服务工具 Ollama 推出自主研发的多模态 AI 定制引擎,摆脱对 llama.cpp 框架的直接依赖。

llama.cpp 项目近期通过 libmtmd 库整合了全面视觉支持,而 Ollama 与其关系也引发社区讨论。

Ollama 团队成员在 Hacker News 上澄清,Ollama 使用 golang 独立开发,未直接借鉴 llama.cpp 的 C++ 实现,并感谢社区反馈改进技术。

Ollama 在官方声明中指出,随着 Meta 的 Llama 4、Google 的 Gemma 3、阿里巴巴的 Qwen 2.5 VL 以及 Mistral Small 3.1 等模型的复杂性增加,现有架构难以满足需求。

Ollama 上线自研多模态 AI 引擎:逐步摆脱 llama.cpp 框架依赖,本地推理性能飙升

因此 Ollama 推出全新引擎,针对在本地推理精度上实现突破,尤其是在处理大图像生成大量 token 时表现突出。

Ollama 引入图像处理附加元数据,优化批量处理和位置数据管理,避免图像分割错误导致输出质量下降,此外,KVCache 优化技术加速了 transformer 模型推理速度。

新引擎还大幅优化内存管理新增图像缓存功能,确保图像处理后可重复使用,避免提前丢弃。Ollama 还联合 NVIDIA、AMD、Qualcomm、Intel 和 Microsoft 等硬件巨头,通过精准检测硬件元数据,优化内存估算。

针对 Meta 的 Llama 4 Scout(1090 亿参数混合专家模型 MoE)等模型,引擎还支持分块注意力(chunked attention)和 2D 旋转嵌入(2D rotary embedding)等技术。

Ollama 未来计划支持更长的上下文长度、复杂推理过程及工具调用流式响应,进一步提升本地 AI 模型的多功能性。

相关资讯

Ollama推出全新多模态AI引擎,推理性能显著提升

前不久,Ollama 宣布推出一款全新的多模态 AI 引擎,这款引擎的研发是独立于原有的 llama.cpp 框架进行的,标志着公司在人工智能领域迈出了重要一步。 这一引擎是基于 Golang 编程语言开发,旨在大幅提高本地推理的精度,同时增强大型图像处理的能力。 新引擎的亮点在于其引入了图像处理元数据、KVCache 优化及图像缓存功能。
5/19/2025 10:01:06 AM
AI在线

Java AI 实战:本地模型JSON结构化输出

在人工智能和机器学习领域,大语言模型(LLM)的应用日益广泛。 Ollama 作为一个强大的开源 LLM 工具,不仅可以进行自然语言对话,还能生成结构化的输出数据。 本文将详细介绍如何使用 Ollama 生成 JSON 格式的输出,并提供完整的 Java 实现方案。
1/10/2025 1:56:28 PM
冷冷

DeepSeek本地部署详细指南!从 Ollama 到个人知识库应用

作者:lushen一、系统介绍mbp pro:二、Ollama 安装与配置1. 跨平台安装指南Ollama 作为本地运行大模型的利器,支持三大主流操作系统:复制2. 服务验证复制出现上述则表示安装成功,可浏览器访问http://localhost:11434/验证。
2/11/2025 12:15:57 PM
腾讯技术工程
  • 1