理论
到底 MCP 有什么魅力?十分钟让 AI 直接操作数据库!
这几天老是听到 MCP 的概念,为了让自己不那么 out ,昨天下班之后我也是抓紧去看了下这到底是何方神圣。 MCP,全称 Model Context Protocol,是一个开源协议,目的是为大语言模型(LLM)提供一个标准化的上下文接口。 也就是说,为各种应用对接 AI 提供了一个规范,就像 USB 接口一样。
5/8/2025 8:29:36 AM
co松柏
低价大模型 DeepSeek 实用指南
火爆全网的国产大模型 DeepSeek,其 API 价格仅为同类模型的几十分之一。 图片DeepSeek 网页端与 API 应用场景DeepSeek 网页端界面简洁直观,但 API 使用需要一定技巧。 本文将从对话、知识库、AI 翻译、AI 编程及 Python 调用等多个场景,分篇评测 DeepSeek API 的实际应用。
5/8/2025 8:10:25 AM
红绿灯灯灯灯
模型上下文协议(MCP)能否替代HTTP?二者又该如何协作?
译者 | 核子可乐审校 | 重楼随着AI原生应用与智能体系统的兴起,开发者社区正迅速迎接种种新兴技术、抽象与架构模式。 而作为大模型与生成式AI生态中的新成果,模型上下文协议(MCP)在引起广泛关注的同时,也让不少开发者感到困惑:作为新型传输协议,MCP会最终取代HTTP吗? 简单来讲:不会。
5/8/2025 7:38:36 AM
核子可乐
如果没有预测性AI,你的数据就浪费了
新的分析要求是在特定情境下进行描述性、预测性和规范性分析。 当我与CIO或项目赞助人会面时,我首先做的一件事就是绘制他们的分析成熟度曲线。 许多企业常常将仪表板与智能混为一谈,他们认为报告就是最终目标,但实际上,这只是第一步。
5/8/2025 7:05:00 AM
Vipin Jain
模型越新幻觉越重!AI幻觉扣住产业发展命脉
自诞生以来,人工智能大模型始终被“幻觉”问题困扰。 这里的“幻觉”,指的是大语言模型会将虚构信息当作真实事实输出。 实际上,“幻觉”这一表述相当委婉,它实则暴露出AI的核心缺陷——当前的大语言模型尚未达到真正意义上的智能水平。
5/8/2025 6:00:00 AM
小刀
大型语言模型参数高效微调技术详解(必看)
随着Transformer架构的广泛应用,以GPT为代表的大型语言模型(LLM)在自然语言处理领域取得了突破性进展。 这些模型通过"预训练 微调"的范式,在下游任务中展现出强大的性能。 然而,随着模型参数规模从数亿增长到数百亿甚至万亿,全量参数微调(Full Fine-tuning)面临以下挑战:计算资源瓶颈:全量微调需要消耗大量的计算资源和内存存储成本高昂:为每个下游任务单独存储微调模型成本巨大灾难性遗忘:全量微调易导致模型"遗忘"预训练阶段获得的知识过拟合风险:尤其在训练数据有限的情况下,全量微调易出现过拟合基于上述考量,参数高效微调技术(Parameter-Efficient Fine-Tuning, PEFT)应运而生。
5/8/2025 5:00:00 AM
口袋数据
逆天强大!Spring AI 身份证识别,图片分析真牛啊
环境:SpringBoot3.4.21. 简介人类处理知识时,会同时通过多种数据输入模式进行。 我们的学习方式、经验积累本质上都是多模态的。
5/8/2025 4:10:00 AM
Springboot实战案例锦集
开发人员必须解决人工智能编码工具的复杂性和安全性问题
对于为了满足日益增长的需求和责任而飞速工作的软件开发人员来说,几年前人工智能 (AI) 编程助手的出现无疑是一大福音。 开发人员很快就成为了生成式 AI 模型的狂热用户,这些模型加速了代码创建过程和交付速度。 然而,在带来不可否认的初始优势之后,另一只鞋子也随之落下,给日益复杂的环境增添了更多复杂性。
5/8/2025 3:20:00 AM
何威风
AWS报告:2025年全球技术预算中GenAI将超越安全
“我认为这并不值得担忧,”AWS GenAI和AI/ML市场推广副总裁拉胡尔·帕塔克(Rahul . Pathak)在接受采访时表示,“我的理解是,客户的安全仍然是重中之重。 我们看到AI在预算优先级方面如此重要,是因为客户看到了AI的众多应用场景。
5/8/2025 3:00:00 AM
Michael
从RAG到QA-RAG:整合生成式AI以用于药品监管合规流程
图片引言聊天机器人的进步近期生成式AI的进展显著增强了聊天机器人的能力。 这些由生成式人工智能驱动的聊天机器人在各个行业中的应用正在被探索[Bahrini等人,2023年;Castelvecchi,2023年;Badini等人,2023年],其中制药行业是一个显著的关注领域。 在药物发现领域,最近的研究表明,由生成式人工智能驱动的聊天机器人在推进药物发现方面可以发挥重要作用[Wang等人,2023年;Savage,2023年;Bran等人,2023年]。
5/8/2025 2:22:00 AM
Wolfgang
从"快思考"到"慢思考":大型语言模型的推理能力革命
在人工智能快速发展的今天,大型语言模型(LLM)已经在多个领域展现出惊人的能力。 然而,当面对需要深度思考和复杂推理的任务时,传统LLM往往表现出明显的局限性。 这种局限性促使研究者们转向探索一种新型的模型范式——基于"慢思维"的推理LLM。
5/8/2025 2:02:02 AM
葱葱
无需代码与营业执照:用Cursor AI快速搭建个人支付网站
一、背景与技术选型1.1 个人支付场景的需求爆发随着知识付费和自由职业的兴起,独立开发者、内容创作者对个人收款工具的需求激增。 传统解决方案存在两大痛点:需要企业资质和开发成本过高。 本文提出的技术方案完美解决了这两个问题。
5/8/2025 1:20:00 AM
程序员秋天
RAG技术:优化知识库,解决AI答非所问
在AI大模型席卷全球的今天,Retrieval-Augmented Generation(RAG,检索增强生成)作为一种融合检索与生成的技术,正成为企业和开发者提升AI能力的核心工具。 然而,许多用户在使用RAG时却发现,AI的回答常常“答非所问”,甚至“驴唇不对马嘴”。 究其原因,问题往往出在文档处理不当。
5/8/2025 1:00:00 AM
贝塔街的万事屋
联想发布多款超级智能体,端侧AI开启规模化落地
2025年5月7日,中国—— 在上海世博中心的舞台,联想Tech World 2025创新科技大会以“让AI成为创新生产力”为主题,掀起了一场跨越个人、企业与城市的人工智能革命。 在这场“AI普惠化进程里程碑”的盛会中,联想集团董事长兼CEO杨元庆首次定义超级智能体的三大核心功能:感知与交互、认知与决策、自主与演进,并携革命性技术成果亮相,正式发布覆盖全场景的超级智能体矩阵,包括联想天禧个人超级智能体、联想乐享企业超级智能体、联想城市超级智能体及新一代联想推理加速引擎。 会上,同时宣布了联想集团与国际足联(FIFA)世界杯的技术合作,将为全球球迷带来更好的竞赛及转播体验。
5/7/2025 4:27:23 PM
老牌 IDE巨头跌落神坛?JetBrains被曝深夜删评惹众怒,用户怒斥"还钱!卸载不掉!"
编辑 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto)JetBrains AI Assistant 又翻车了,这次是删评论。 作为 JetBrains 家族的“AI门面担当”,JetBrains AI Assistant 自 2023 年 7 月发布以来,一直饱受开发者吐槽:功能鸡肋、集成过深、无法卸载。 但真正把这款产品送上风口浪尖的,是 JetBrains 本周在自家论坛里的一波“夜间行动”——悄悄删差评。
5/7/2025 2:07:32 PM
伊风
Gemini 2.5 Pro登顶三冠王!AI最强编程屠榜,全面碾压Claude 3.7
AI编程王座,一夜易主。 昨晚,谷歌放出全新升级的Gemini 2.5 Pro Preview(I/O版),一举拿下三连冠,登顶LMeana。 Image图片它成为首个横扫文本、视觉、WebDev Arena基准的SOTA模型,编码性能碾压Claude 3.7 Sonnet。
5/7/2025 1:57:05 PM
新智元
一个LoRA实现GPT-4o级图像编辑!浙大哈佛新模型冲上Hugging Face榜二
基于文本指令的图像编辑任务一直都是图像生成、编辑领域的一大热点,从Prompt2prompt到InstructPix2Pix,从EmuEdit再到最新的GPT4o,都在不断的拔高AI图像编辑的水平。 总的来说,这些模型可以归为两大类:一种是免训练(training-free)图像编辑,一种是基于训练或微调的图像编辑。 免训练图像编辑多通过对一个预训练文生图diffusion大模型进行提示词替换、操纵注意力图、图像反演等操作实现,尽管省去了训练的耗费,但其操作过程往往较为复杂且编辑效果不稳定、编辑任务种类单一。
5/7/2025 1:51:49 PM
新智元
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍
Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。 然而,MoE 虽然显著降低了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。 现有的主流解决方案是专家卸载(Expert Offloading),即将专家模块存储在下层存储设备(如 CPU 内存甚至磁盘)中,在推理时按需加载激活的专家到显存进行计算。
5/7/2025 1:49:19 PM
机器之心
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
机器人
数据
AI新词
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
马斯克
英伟达
Anthropic
图像
AI创作
训练
LLM
论文
代码
算法
苹果
AI for Science
腾讯
Agent
Claude
芯片
Stable Diffusion
具身智能
蛋白质
xAI
开发者
生成式
人形机器人
神经网络
机器学习
3D
AI视频
RAG
大语言模型
Sora
研究
百度
生成
GPU
字节跳动
工具
华为
AGI
计算
大型语言模型
AI设计
搜索
生成式AI
视频生成
亚马逊
DeepMind
AI模型
特斯拉
场景
深度学习
Transformer
架构
MCP
Copilot
编程
视觉