AI在线 AI在线

​GitHub与微软采用Anthropic的MCP标准,连接AI模型与数据源

在微软 Build2025大会上,GitHub 及其母公司微软宣布加入 MCP(模型连接协议)指导委员会。 MCP 是由人工智能公司 Anthropic 提出的标准,旨在更好地将 AI 模型与数据存储系统连接起来。 这一消息标志着 MCP 在 AI 行业的影响力持续增长,早些时候,OpenAI 和谷歌也曾表示将支持这一标准。

在微软 Build2025大会上,GitHub 及其母公司微软宣布加入 MCP(模型连接协议)指导委员会。MCP 是由人工智能公司 Anthropic 提出的标准,旨在更好地将 AI 模型与数据存储系统连接起来。这一消息标志着 MCP 在 AI 行业的影响力持续增长,早些时候,OpenAI 和谷歌也曾表示将支持这一标准。

MCP

图源备注:图片由AI生成,图片授权服务商Midjourney

MCP 的核心功能是允许 AI 模型从各种数据源中获取信息,以完成特定任务。这些数据源包括商业工具、软件、内容库以及应用开发环境等。通过 MCP 协议,开发者可以构建数据源与 AI 应用(例如聊天机器人)之间的双向连接。这意味着开发者可以通过 “MCP 服务器” 向外界提供数据,并创建 “MCP 客户端”,如应用程序和工作流程,以便在需要时与这些服务器进行连接。

微软和 GitHub 表示,将在他们的各个平台和服务中提供全面的 MCP 支持,包括 Microsoft Azure 和 Windows11。预计在未来几个月内,Windows 系统将会实现 MCP 集成,使开发者能够将应用的功能暴露给支持 MCP 的 AI 模型。微软在相关材料中指出,开发者将能够将所需的功能和能力封装在应用中,作为 MCP 服务器来提供服务,包括 Windows 系统功能,如文件系统、窗口管理以及 Windows 子系统等。

在安全性方面,微软表示其身份和安全团队与 Anthropic、MCP 指导委员会及更广泛的 MCP 社区合作,设计了一套更新的授权规范。这项规范允许 MCP 连接的应用更安全地访问 MCP 服务器,从而使用户可以使用 “可信的登录方式” 来授予 AI 应用访问数据和服务的权限,包括个人存储驱动器和订阅计划。

与此同时,GitHub 也与 MCP 指导委员会共同设计了一个注册服务,用于 MCP 服务器。该服务允许开发者实现公共或私有的 MCP 服务器条目集中式存储库,促进各种 MCP 实现及其配置的发现与管理。

划重点:

🌐 GitHub 与微软加入 MCP 标准的指导委员会,推动 AI 模型与数据源的连接。

🔗 MCP 协议使得开发者能构建双向连接,支持多种数据源与 AI 应用的交互。

🔒 微软更新授权规范,确保 MCP 连接的安全性,同时 GitHub 推出 MCP 服务器的注册服务。

相关资讯

Perplexity携手SheerID:AI搜索引擎免费向全球2.64亿学生开放,剑指教育市场

人工智能搜索引擎Perplexity周一宣布与身份验证公司SheerID达成合作,将向全球超过2.64亿学生提供长达两年的免费Perplexity Pro高级服务。 此举旨在解决人工智能公司在向教育领域提供昂贵工具时面临的折扣欺诈挑战,并凸显了Perplexity在日益激烈的用户竞争中,大力押注教育市场的战略。 高级服务免费开放,精准锁定学生用户根据协议,经过SheerID验证的学生将能免费使用原价每月20美元的Perplexity Pro。
7/16/2025 9:11:20 AM
AI在线

快手基于 Flink 构建实时数仓场景化实践

一、快手实时计算场景快手业务中的实时计算场景主要分为四块:公司级别的核心数据:包括公司经营大盘,实时核心日报,以及移动版数据。相当于团队会有公司的大盘指标,以及各个业务线,比如视频相关、直播相关,都会有一个核心的实时看板;大型活动实时指标:其中最核心的内容是实时大屏。例如快手的春晚活动,我们会有一个总体的大屏去看总体活动现状。一个大型的活动会分为 N 个不同的模块,我们对每一个模块不同的玩法会有不同的实时数据看板;运营部分的数据:运营数据主要包括两方面,一个是创作者,另一个是内容。对于创作者和内容,在运营侧,比如上
8/25/2021 2:45:00 PM
阿里云大数据AI技术

LlamaIndex新手指南(2025):从0到生产环境,构建RAG应用的完整指南

在人工智能蓬勃发展的当下,大语言模型(LLMs)如ChatGPT、Llama等展现出强大的自然语言处理能力,在翻译、写作、通用问答等任务中表现亮眼。 然而,它们存在知识局限,其知识储备仅基于训练数据,面对特定领域查询易生成错误信息,这极大限制了在实际场景中的应用价值。 为解决该问题,检索增强生成(Retrieval-Augmented Generation,RAG)技术诞生,通过在查询时高效处理、存储和检索文档片段,确保LLMs能生成更准确、具上下文感知的回答,无需昂贵的重新训练或微调。
8/27/2025 4:15:00 AM
大模型之路
  • 1