AI在线 AI在线

Ollama 上线自研多模态 AI 引擎:逐步摆脱 llama.cpp 框架依赖,本地推理性能飙升

Ollama推出自研多模态AI引擎,摆脱对llama.cpp的依赖,优化本地推理性能,支持大图像处理和复杂模型。新引擎引入图像处理元数据、KVCache优化等技术,联合NVIDIA等硬件巨头优化内存管理。#AI技术# #本地推理#

科技媒体 WinBuzzer 昨日(5 月 16 日)发布博文,报道称开源大语言模型服务工具 Ollama 推出自主研发的多模态 AI 定制引擎,摆脱对 llama.cpp 框架的直接依赖。

llama.cpp 项目近期通过 libmtmd 库整合了全面视觉支持,而 Ollama 与其关系也引发社区讨论。

Ollama 团队成员在 Hacker News 上澄清,Ollama 使用 golang 独立开发,未直接借鉴 llama.cpp 的 C++ 实现,并感谢社区反馈改进技术。

Ollama 在官方声明中指出,随着 Meta 的 Llama 4、Google 的 Gemma 3、阿里巴巴的 Qwen 2.5 VL 以及 Mistral Small 3.1 等模型的复杂性增加,现有架构难以满足需求。

Ollama 上线自研多模态 AI 引擎:逐步摆脱 llama.cpp 框架依赖,本地推理性能飙升

因此 Ollama 推出全新引擎,针对在本地推理精度上实现突破,尤其是在处理大图像生成大量 token 时表现突出。

Ollama 引入图像处理附加元数据,优化批量处理和位置数据管理,避免图像分割错误导致输出质量下降,此外,KVCache 优化技术加速了 transformer 模型推理速度。

新引擎还大幅优化内存管理新增图像缓存功能,确保图像处理后可重复使用,避免提前丢弃。Ollama 还联合 NVIDIA、AMD、Qualcomm、Intel 和 Microsoft 等硬件巨头,通过精准检测硬件元数据,优化内存估算。

针对 Meta 的 Llama 4 Scout(1090 亿参数混合专家模型 MoE)等模型,引擎还支持分块注意力(chunked attention)和 2D 旋转嵌入(2D rotary embedding)等技术。

Ollama 未来计划支持更长的上下文长度、复杂推理过程及工具调用流式响应,进一步提升本地 AI 模型的多功能性。

相关资讯

Ollama推出全新多模态AI引擎,推理性能显著提升

前不久,Ollama 宣布推出一款全新的多模态 AI 引擎,这款引擎的研发是独立于原有的 llama.cpp 框架进行的,标志着公司在人工智能领域迈出了重要一步。 这一引擎是基于 Golang 编程语言开发,旨在大幅提高本地推理的精度,同时增强大型图像处理的能力。 新引擎的亮点在于其引入了图像处理元数据、KVCache 优化及图像缓存功能。
5/19/2025 10:01:06 AM
AI在线

无编程经验也能本地玩转 AI:Win10 / Win11 版 Ollama 应用上线

AI在线 8 月 1 日消息,科技媒体 Windows Report 昨日(7 月 31 日)发布博文,报道称 Ollama 公司推出了适用于 Windows 和 macOS 系统的桌面应用,没有任何编程经验的普通用户也能在本地玩转 AI 模型。 AI在线注:Ollama 是一个轻量级、可扩展的框架,用于在本地计算机上构建和运行语言模型。 用户此前通常使用 Docker 容器化部署,而现在用户可以直接在桌面端体验该应用。
8/1/2025 2:47:35 PM
故渊

Java AI 实战:本地模型JSON结构化输出

在人工智能和机器学习领域,大语言模型(LLM)的应用日益广泛。 Ollama 作为一个强大的开源 LLM 工具,不仅可以进行自然语言对话,还能生成结构化的输出数据。 本文将详细介绍如何使用 Ollama 生成 JSON 格式的输出,并提供完整的 Java 实现方案。
1/10/2025 1:56:28 PM
冷冷
  • 1