AI在线 AI在线

MCP

OpenAI Responses API重磅更新,集成MCP、图像生成与代码解释器,AI智能体开发进入新纪元!

OpenAI宣布对其Responses API进行重大升级,新增支持Model Context Protocol(MCP)、图像生成、代码解释器和后台模式,通过单次API调用即可实现多功能智能体开发。 这一更新自发布以来引发开发者社区热烈反响,被认为是OpenAI推动AI智能体生态的重要里程碑。 AIbase综合最新社交媒体动态,深入解析Responses API更新的技术亮点及其对全球AI开发的影响。
5/22/2025 11:00:55 AM
AI在线

MCP或将成为AI界的HTTP​

译者 | 陈峻审校 | 重楼由Claude 人工智能(AI)模型家族背后的公司--Anthropic推出的通信协议MCP(模型上下文协议,Model Context Protocol)可谓2025年的流行协议。 目前,包括Google和OpenAI在内的几乎所有主要AI公司都接受了MCP,并使之正在成为AI模型的标准化通信方式。 下面,我将向你详细介绍什么是MCP,如何构建一个基础的MCP服务器,及其工作原理。
5/21/2025 8:27:54 AM
陈峻

微软宣布Windows11原生支持MCP

微软宣布对 Windows 系统进行重大升级,以支持一种名为模型上下文协议(MCP)的新标准。 这一标准由 Anthropic 于去年推出,常被称为 “AI 应用的 USB-C 端口”。 MCP 的引入,将使得开发者能够更加便捷地让他们的 AI 应用与其他应用、网络服务及 Windows 的各个部分进行互动。
5/20/2025 3:00:45 PM
AI在线

火山引擎推出开源 MCP Servers,助力大模型应用开发

近日,火山引擎宣布推出一款名为 MCP Servers 的大模型生态平台,并将其开源。 这一举措使得企业可以轻松将自研工具按照 MCP 协议进行封装并上传共享,形成一个良性的 “用生态” 与 “建生态” 的循环。 火山引擎MCP Servers 可被视为一个 “大模型工具超市”,集成了大量高质量的 MCP 协议适配工具,涵盖了搜索、数据库和业务系统 API 等多个高频场景。
5/20/2025 12:00:55 PM
AI在线

Bright Data MCP 服务器发布,集成超过30种强大工具

Bright Data 正式推出其开源 Model Context Protocol(MCP)服务器,集成超过30种强大工具,助力 AI 代理无缝访问、搜索、爬取和交互网络数据,避免常见的 IP 封锁和访问限制问题。 这一创新解决方案迅速引发行业关注,成为 AI 代理与实时数据交互的关键桥梁。 AIbase 整理最新资讯,带您深入了解 Bright Data MCP 服务器的核心功能与潜力。
5/20/2025 10:01:11 AM
AI在线

​GitHub与微软采用Anthropic的MCP标准,连接AI模型与数据源

在微软 Build2025大会上,GitHub 及其母公司微软宣布加入 MCP(模型连接协议)指导委员会。 MCP 是由人工智能公司 Anthropic 提出的标准,旨在更好地将 AI 模型与数据存储系统连接起来。 这一消息标志着 MCP 在 AI 行业的影响力持续增长,早些时候,OpenAI 和谷歌也曾表示将支持这一标准。
5/20/2025 10:01:05 AM
AI在线

火山引擎发布大模型生态广场 MCP Servers

火山引擎正式发布了其大模型生态广场——MCP Servers,这一创新平台的推出标志着AI开发进入了一个全新的模块化组装时代。 通过“MCP Market(工具广场) 火山方舟(大模型服务) Trae(应用开发环境)”的深度协同,MCP Servers实现了从工具调用、模型推理到应用部署的全链路开发闭环,极大地简化了开发流程,让开发者能够以更高效的方式构建AI应用。 MCP Servers被形象地称为“大模型工具超市”,它集成了众多高质量的MCP协议适配工具,覆盖了搜索、数据库、业务系统API等高频应用场景。
5/20/2025 9:00:56 AM
AI在线

为什么 API 必不可少,而 MCP 暂时是可选的

作者 | Gil Feig编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)AI 助手在产品体验中的重要性日益凸显,而一种新的标准也应运而生,它助力 AI 助手的构建:模型上下文协议 (MCP)。 随着 Anthropic、OpenAI 和 Gemini 等主流大型语言模型 (LLM) 提供商的采用,该协议迅速在更广泛的软件生态系统中获得了广泛关注,各大公司纷纷构建自己的 MCP 服务器。 作为参与构建 MCP 服务器和 API 集成的人员,我亲眼目睹了这种快速采用导致的混乱。
5/19/2025 7:01:14 PM
云昭

新技术栈来了!四剑客联手打造下一代互联网!智能体互联时代将至!A2A、MCP、Kafka 与 Flink如何强强联手?

编译 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)智能体(Agent)是个不可逆的趋势。 但今天的AI 智能体似乎还处于一个“前标准化”阶段。 这些雨后春笋般的智能体越来越多,性能强大、增长迅速,但彼此之间却无法协作——有的智能体用来分析数据,有的用来编写代码,有的用来自动化客户关系管理(CRM)工作流,但它们彼此孤立,互不往来。
5/19/2025 6:57:05 PM
云昭

ChatGPT将整合MCP协议,助力企业接入多样AI服务

近日,有科技媒体爆料,OpenAI 正在测试一项名为 “连接器设置”(Connectors settings)的新功能,ChatGPT 可能会很快支持 MCP(模型上下文协议)协议。 这一变化将使 ChatGPT 能够与第三方 AI 服务进行无缝对接,为用户提供更多个性化的体验。 MCP 协议的推出始于2024年11月,由 AI 公司 Anthropic 开发,其目的是统一大语言模型(LLM)与外部系统之间的互动方式。
5/19/2025 11:01:05 AM
AI在线

十张图带您极简认识 MCP「可视化指南」

图片简单来说,MCP 就像 AI 应用的 USB-C 端口。 一句话通俗解释:MCP就像是一个“超级连接器”,可以看作强大的拓展坞,能让聊天机器人和外面的各种数据(比如数据库、文件等)轻松“牵手”,让它们更好地一起工作,就像让机器人有了更多“知识库”和“工具箱”。 正如 USB-C 提供了一种将设备连接到各种配件的标准化方式一样,MCP 也标准化了AI 应用程序连接到不同数据源和工具的方式。
5/19/2025 8:50:34 AM
猫先生

玩转MCP第一弹|手把手教你将 Figma 设计稿转化为前端代码

明明听说 Trae 的 的模型上下文协议(MCP) 功能超实用,却陷入 “不知从何下手” 的迷茫? 别担心! 我们将开启 “玩转 MCP” 的系列内容,手把手教你使用 Trae IDE 借助 MCP 轻松实现多样化的开发需求!
5/19/2025 2:00:00 AM

OpenAI ChatGPT 被曝将支持 MCP 协议,可接入第三方 AI 服务

据社交平台 X 用户 Tibor 爆料,ChatGPT 正在测试一项“连接器设置”(Connectors settings)功能。用户可点击“自定义”(Custom)选项,添加新工具,并填写工具名称、URL 和描述等信息。
5/17/2025 2:22:46 PM
故渊

Hugging Face上线MCP免费教程!一天速成AI上下文协议

Hugging Face再度为全球AI开发者带来惊喜,正式发布Model Context Protocol(MCP)免费在线课程。 作为连接大语言模型(LLM)与外部数据和工具的标准化协议,MCP正成为AI Agent开发的核心技术。 这门课程从MCP协议基础到实际开发应用,内容简洁实用,旨在让开发者快速上手,构建高效的AI上下文交互系统。
5/16/2025 11:00:55 AM
AI在线

Spring AI + MCP + DeepSeek-R1-7B + SSE 全流程实战指南

本教程将带你从 0 到 1 实现一个完整的 AI 流式问答应用,整合以下组件:Spring Boot Spring AI 构建服务框架MCP(Model Connector Plugin) 用于统一管理本地/云端大模型DeepSeek-R1-7B 国产高性能大模型(OpenAI API 兼容)SSE(Server-Sent Events) 实现前后端实时流式响应Ollama(可选) 更便捷地部署 DeepSeek-R1-7B 模型并提供 OpenAI 接口支持模型部署方式推荐:Ollama 运行 DeepSeek-R1-7B安装 Ollama访问:(以 DeepSeek 为例)复制也可以加载其它模型,如 llama3, qwen:chat, yi:34b, phi3, mistral 等。 启动 Ollama复制Ollama 会自动监听 OpenAI 风格接口(http://localhost:11434/v1/chat/completions),兼容 stream: true。 Spring Boot 接入 SSE 流式输出服务添加依赖(pom.xml)复制WebClient 配置类复制请求体结构封装复制DeepSeek-R1-7B 接口封装(支持 stream: true)复制控制器对外暴露 SSE 接口复制前端 JS 接入 SSE 实现流式展示复制总结通过以上步骤,我们成功实现了:Ollama 部署并运行 DeepSeek-R1-7B 本地大模型Spring Boot 封装 OpenAI 接口 stream: true实现后端 SSE 推流 前端实时 Token 渲染支持国产开源模型的类 ChatGPT 对话功能
5/16/2025 7:50:58 AM
编程疏影

OpenMemory MCP发布!AI记忆本地共享,Claude、Cursor一键同步效率翻倍!

OpenMemory MCP(Model Context Protocol)正式推出,为AI工具提供统一的本地记忆共享解决方案。 这一开源工具允许用户将AI交互内容存储在本地,并通过MCP协议共享至支持的客户端,如Claude、Cursor和Windsurf,只需维护一份记忆内容即可实现跨工具上下文同步。 AIbase观察到,OpenMemory MCP的发布迅速引发开发者热议,被认为是提升AI工作流效率的重大创新。
5/14/2025 5:00:52 PM
AI在线

MCP如何实现Agentic AI工作流

Agentic AI工作流涌现! 本文揭秘如何用 Anthropic 的 MCP 赋能 LLM,实现自主决策。 通过 Todo List MCP Server 和 Calendar MCP Server 演示,展示 MCP 客户端如何协调工具和动态提示,构建模块化、可组合的智能自动化流程。
5/14/2025 3:20:00 AM
岱军

一口气讲清楚:FC、MCP、A2A

前面几篇文章中,我介绍了AI大模型领域常见的几种专业术语,分别是:AGI、RAG、AIGC、LLM、MCP、EMB、向量库、训练集、多模态。 了解基础概念和专业术语之后,有助于我们在工作和生活中深入学习和应用AI。 这个时候,可能有同学会产生疑问,这么多大模型、ChatBot、智能体等AI工具,我该如何将它们融入到自己的生活和工作场景中呢?
5/14/2025 1:55:00 AM
老张