AI在线 AI在线

SpringAI新版发布:终于支持MCP断线重连了!

盼星星盼月亮,Spring AI 新版 1.1.0-M1(1.1.0 里程式版本)终于支持 Steamable HTTP 了,也就意味着 Spring AI 的 MCP 服务终于支持自动断线重连了。 1.SteamableHTTP定义:Streamable HTTP 是基于标准 HTTP 协议的流式数据传输模式,允许客户端或服务器在数据完全生成前,分块(Chunk)传输数据,实现“边生成、边传输、边使用”的实时通信效果。 它不是新协议,而是对 HTTP 的优化用法,结合了分块传输、连接复用、断线重连等特性。

盼星星盼月亮,Spring AI 新版 1.1.0-M1(1.1.0 里程式版本)终于支持 Steamable HTTP 了,也就意味着 Spring AI 的 MCP 服务终于支持自动断线重连了。

1.SteamableHTTP

定义:Streamable HTTP 是基于标准 HTTP 协议的流式数据传输模式,允许客户端或服务器在数据完全生成前,分块(Chunk)传输数据,实现“边生成、边传输、边使用”的实时通信效果。它不是新协议,而是对 HTTP 的优化用法,结合了分块传输、连接复用、断线重连等特性。

2.SteamableHTTP和SSE

SSE 是 Spring AI 此次新版发布之前主要使用的通讯协议,是一种基于 HTTP 协议的 服务器向客户端单向推送数据 的技术,允许服务器在建立连接后 随时向客户端发送实时更新,无需客户端反复发起请求。它是 HTML5 标准的一部分,设计简单,适合需要实时通知但无需双向通信的场景。

SSE 和 Steamable HTTP 的主要区别如下:

维度

SSE

Streamable HTTP

灵活性

❌ 仅单向通信,格式受限

✅ 支持双向、多格式、断点续传

性能

❌ 高并发时资源占用高

✅ 高并发下更高效

3.使用SteamableHTTP

Steamable HTTP 在新版中的使用如下。

先添加新版依赖:

复制

配置使用 Steamable 协议:

复制

客户端也添加对应的新版本依赖:

复制

之后配置 MCP 服务器地址就可以直接调用了:

复制

其他实现代码不变。

小结

Spring AI 之前版本最被人诟病的就是不支持 Streamable HTTP,所以在实现自定义 MCP 服务器端时很麻烦,需要自己手动实现断线自动重连功能。但现在新版本支持之后我们就可以非常方便的实现 MCP 服务了,大家可以动手试一下。

相关资讯

十大步骤详解Spring AI MCP机制底层实现,小白误入!

MCP分为MCP Client和MCP Server:MCP Client负责进行工具发现和工具调用MCP Server负责提供工具和工具执行总体流程图图片十大步骤详解第一步,MCP Client接收用户的问题,比如“今天是几月几号”。 第二步,MCP Client发送tools/list请求给MCP Server进行工具发现。 利用Spring AI开发的MCP Server,可以利用@Tool注解定义工具,比如:图片并利用MethodToolCallbackProvider提供出去:在MCP Server的MpcServerAutoConfiguration自动配置类中定义了一个McpSyncServer的Bean,它会依赖注入ListToolCallbackProvider,这样McpSyncServer中就拿到了MCP Server中定义的所有Tools(调用ToolCallbackProvider的getToolCallbacks()即可拿到)。
4/11/2025 9:01:37 AM
IT周瑜

基于 Spring AI + MCP + DeepSeek-R1-7B 构建企业级智能 Agent 工具调用系统

在大模型 Agent 发展浪潮下,如何通过模型驱动外部工具调用(Tool Calling)已成为构建智能业务系统的关键能力。 本文将手把手带你通过 Spring AI MCP(Model Context Protocol) DeepSeek-R1-7B 打造一个可落地的企业级智能 Agent。 项目背景与架构设计技术选型Spring AISpring 官方推出的 AI 接入框架,支持 LangChain、MCP、RAG 等能力;MCP(Model Context Protocol)模型与工具之间通信的协议桥梁;DeepSeek-R1-7B国产高性能开源大模型,已支持 Chat Completion、Tool Calling 接口;Ragflow用作 RAG 架构引擎(可选);系统功能用户向模型提问模型判断是否调用工具(如数据库查询)MCP 注册的工具服务完成任务模型生成最终响应环境准备安装依赖复制本地部署 DeepSeek-R1-7B 模型推荐使用 vLLM 启动 DeepSeek-R1-7B 模型服务:复制构建 Spring AI MCP 工具服务示例业务:产品信息查询复制注册 MCP 工具复制模型端配置(Ragflow 示例)在 ragflow.config.yaml 中配置模型地址及 MCP 工具启用:复制前端调用(可选)复制测试效果用户输入:复制输出结果:复制模型会自动触发 query-product 工具,无需用户指定,展示 Agent 工具能力。
4/21/2025 4:22:00 AM
编程疏影

MCP融合Spring AI,Java程序员大模型技术再上一层楼

在当下的技术发展浪潮中,大语言模型(LLMs)正深度渗透至企业应用开发领域,持续改写着该领域的格局。 开发者积极将其融入现代解决方案。 然而,快速发展背后,大语言模型通信和上下文处理缺乏标准化协议的问题日益凸显。
4/29/2025 12:01:55 AM
学研妹
  • 1