AI在线 AI在线

AI 网关对决:Higress 与 OneAPI 的功能对比

什么是 AI 网关? AI 网关旨在统一管理与各种大型语言模型(LLMs)的交互。 通过提供单一入口点,它解决了使用来自不同供应商的多个 AI 模型所带来的复杂性问题。

什么是 AI 网关?

AI 网关旨在统一管理与各种大型语言模型(LLMs)的交互。通过提供单一入口点,它解决了使用来自不同供应商的多个 AI 模型所带来的复杂性问题。这不仅简化了访问流程,提高了系统稳定性,还降低了成本,并灵活地利用了不同模型的优势。

什么是 OneAPI?

OneAPI 是一个开源的 LLM API 管理 & 分发系统,可以帮助统一管理和转发各类大语言模型(如 DeepSeek 等)的 API 请求。它提供了一个兼容 OpenAI API 格式的统一接口,让用户能够方便地切换和管理不同的 AI 模型服务,同时支持令牌管理、负载均衡等功能。

什么是 Higress?

Higress 是一款云原生 API 网关,内核基于 Istio 和 Envoy,可以用 Go/Rust/JS 等编写 Wasm 插件,提供了数十个现成的通用插件。Higress 在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。阿里云基于 Higress 构建了云原生 API 网关产品,为大量企业客户提供 99.99% 的网关高可用保障服务能力。

Higress 同时也能够作为 AI 网关,通过统一的协议对接国内外所有 LLM 模型厂商,同时具备丰富的 AI 可观测、多模型负载均衡/fallback、AI token 流控、AI 缓存等能力。

图片图片

Higress 和 OneAPI 的对比

下面的表格从多个维度对比了 OneAPI 和 Higress 之前的差异:

差异项

OneAPI

Higress

核心功能

AI 网关

具有 AI 网关功能的 API 网关

维护方式

由个人维护的项目

由阿里云 API 网关团队维护的项目

系统安全

易受安全漏洞影响,如 DockerHub 镜像被注入加密挖矿脚本

商业版由阿里云托管,无此风险;开源版本集成了阿里云容器镜像服务以存储镜像,提供安全扫描和自动阻止风险镜像的功能

内容安全

通过集成阿里云内容安全实现实时内容过滤,同时支持数据脱敏等功能

模型管理

只有模型和 API Key 配置管理

支持 API Key 管理(多密钥轮询、屏蔽不可用密钥)、消费者管理(API Key 二级分发、访问控制)、兜底模型以及模型灰度发布。

可观测性

提供监控仪表板用于查看模型及消费者令牌消耗和调用延迟。提供全面的可观测性,包括内容安全、速率限制和缓存的监控。

可扩展性

插件市场提供了现成插件(提示词模板、AI缓存、数据脱敏、内容安全),支持自定义插件开发及热加载。

云集成

可以和阿里云上的各类云产品集成,例如借助 SLS 实现 AI 数据分析能力

Higress 作为 AI 网关的优势

Higress 作为 AI 网关,具备以下几大优势:

  • 统一管理与灵活扩展:Higress 提供一个集中的入口,能够统一管理多个大型语言模型(LLMs),简化了与不同供应商模型的接入和配置,支持灵活扩展,方便在需求变化时加入新的模型。
  • 高可用性与稳定性:Higress 通过自动故障转移机制,确保当某个 AI 模型服务不可用时,能够快速切换到备选模型,保持系统的高可用性和稳定性,极大减少了服务中断的风险。
  • AI 缓存:Higress 支持将 AI 模型的结果缓存在 Elasticsearch、Redis、Weaviate 等数据库中。这样不仅可以在后续处理相似问题的请求时快速返回结果,还能减少 LLM 调用的费用开销。
  • 意图识别:Higress 能根据用户需求智能地选择最合适的 LLM,从而在不同场景下提供最佳响应。
  • API Key 治理:支持配置 API Key 池实现多 Key 均衡,API Key 被限流等不可用情况会自动屏蔽,并在可用时自动恢复。
  • 消费者管理:可以通过创建消费者,实现 API Key 的二次分租,无需将真正的供应商 API Key 暴露给调用方,并且可以精细化管理不同消费者的调用权限和调用额度。
  • 强大的可观测性:Higress 提供关于模型性能、令牌使用情况及安全相关指标的详细洞察,帮助团队全面监控系统健康状况。
  • 云原生集成:与阿里云服务紧密集成,Higress 提供了托管的云原生 API 网关选项,简化了云环境中的部署与管理。
  • 内容安全:Higress 集成了阿里云内容安全技术,为 AI 内容提供强大的安全保障。

快速体验 Higress AI 网关

Higress AI 网关支持一行命令安装:

curl -sS https://higress.cn/ai-gateway/install.sh | bash

执行完命令后可以通过命令行初始化配置,可以看到,Higress 的 AI 网关能力支持对接国内外所有主流 LLM 模型供应商:

图片图片

也可以选择跳过这个步骤,到 Higress 的控制台进行配置对应供应商的 API Key:

图片图片

配置后,就可以直接使用了,例如使用 OpenAI 的 SDK:

import json
from openai import OpenAI

client = OpenAI(
    api_key=xxxxx, # 👉 可以通过 Higress 生成消费者 Key 实现 API Key 的二次分租
    base_url="http://127.0.0.1:8080/v1"
)

completion = client.chat.completions.create(
    model="deepseek-chat", # 👉 可以填写任意模型名称,Higress 会根据模型名称路由到对应的 LLM 供应商
    messages=[
        {"role": "user", "content": "你好"}
    ],
    stream=True
)

for chunk in completion:
    print(chunk.choices[0].delta)

可以在监控面板看到每个模型,以及每个消费者的 token 消耗情况以及调用延时:

图片图片

参考链接

  • Higress:https://github.com/alibaba/higress
  • OneAPI:https://github.com/songquanpeng/one-api

相关资讯

大模型时代:AI 网关的智能连接与场景对接

1.背景随着 AI 技术快速发展,业务对 AI 能力的渴求日益增长。 当 AI 服务面对处理大规模请求和高并发流量时,AI 网关从中扮演着至关重要的角色。 AI 服务通常涉及大量的计算任务和设备资源占用,此时需要一个 AI 网关负责协调这些请求来确保系统的稳定性与高效性。
5/12/2025 2:20:00 AM
通用工程

高性能智算网关打通 GPU 集群与 AI 存储高速链路,硬件成本直降 95%

在企业级智算场景中,AI 训练需依托大规模 GPU 集群进行算力输出,同时依赖存储资源池存放训练数据与模型文件等。 行业普遍采用「计算 - 存储分区部署」架构 —— 即 GPU 服务器集中部署于专属计算区、存储资源整合为公共存储池。 模型训练过程中需要不断对数据进行读写操作,例如 GPU 集群从存储池加载训练数据集、实时回传训练中间结果、保存训练过程中的 Checkpoint 文件等,因此在分区部署的架构下,计算和 AI 存储之间会产生高频次、大容量的跨区数据交互,跨区通信效率也因此成为决定 AI 训练任务整体性能的关键环节。
10/16/2025 1:35:00 AM
WXK&LSJ

MCP 与 API 网关:二者不可互换

MCP 与 API 网关在架构和协议层面存在本质差异,企业应采用专为 MCP 设计的网关方案以保障安全性与可扩展性,而非简单复用传统 API 网关。 我服务的许多组织正在快速采用 模型上下文协议(MCP),以便通过 AI 智能体将服务和数据连接到 AI 模型。 但他们也遇到了熟悉的挑战:既要保护 MCP 服务器和工具的访问安全,又要实现路由、限流、可观测性和开发者门户等能力。
10/27/2025 1:22:00 AM
Jimmy Song
  • 1