资讯列表
北大、清华联合发布!大模型逻辑推理能力新突破
在当前人工智能领域,大语言模型(LLMs)取得了显著成就,但其逻辑推理能力依然显得不足。 为了提升这一能力,来自北京大学、清华大学、阿姆斯特丹大学、卡内基梅隆大学以及阿布扎比的 MBZUAI 等五所高校的研究人员,联合发布了《Empowering LLMs with Logical Reasoning: A Comprehensive Survey》综述论文,聚焦于逻辑推理的两大关键问题:逻辑问答和逻辑一致性。 研究表明,大语言模型在处理复杂逻辑推理时存在明显的短板。
5/8/2025 10:00:54 AM
AI在线
学而思推出全新学习机,AI 智能交互助力孩子个性化学习
日前,学而思在新品发布会上正式推出了 P、S、T 三大系列学习机,旨在通过 “好 AI 好内容” 来重塑学生的学习体验。 在 “好 AI” 方面,学而思借助自主研发的九章大模型与 DeepSeek 双核大模型,全面升级了智能学习系统。 该学习机还提供了 “小思 AI1对1” 智能交互功能,旨在引导学生主动探索,提升个性化学习的效率。
5/8/2025 10:00:54 AM
AI在线
Netflix电视应用迎大升级:全新界面与 AI 智能推荐功能
Netflix 正式宣布将推出全新的电视应用体验,预计在未来几周内在苹果电视上上线。 这一全新设计自去年以来一直处于测试阶段,与现有界面相比,具有明显的变化和改进。 新主页采用了简洁现代的设计风格,内容展示更加突出。
5/8/2025 10:00:54 AM
AI在线
开源即屠榜!UniME多模态框架登顶MMEB全球训练榜,刷新多项SOTA纪录
告别CLIP痛点,更懂语义关联的跨模态理解新SOTA来了! 格灵深瞳、阿里ModelScope团队,以及通义实验室机器智能团队联合发布通用多模态嵌入新框架UniME,一经推出就刷新MMEB训练榜纪录。 △图片于2025年5月6日08:00 UTC 8截取UniME作为一个创新性的两阶段框架,所展现的卓越的组合理解力,帮助MLLMs具备学习适用于各种下游任务的判别性表征的能力,并在多个任务中达到了新的SOTA。
5/8/2025 9:31:50 AM
摩尔线程 MTT S4000 训推一体计算卡通过中国信通院 AI 芯片和大模型适配验证
摩尔线程官方昨日晚发文宣布:经中国信息通信研究院检测,在本次 AI 芯片与模型适配验证项目中,摩尔线程自主研发的训推一体计算卡 MTT S4000 和杭州深度求索人工智能基础技术研究有限公司研发的 DeepSeek-R1 671B 大模型,在推理场景下的适配结果符合“AI 芯片和大模型通过性适配要求”,成功通过中国信通院《AI 芯片和大模型适配能力通过性评测软硬件环境及测试细则》推理场景验证。
5/8/2025 9:28:37 AM
归泷
万字长文带你读懂强化学习,去中心化强化学习又能否实现?
强化学习(RL)是当今 AI 领域最热门的词汇之一。 近日,一篇长文梳理了新时代的强化学习范式对于模型提升的作用,同时还探索了强化学习对去中心化的意义。 原文地址:「有时候几十年什么也不会发生;有时候几周时间仿佛过了几十年。
5/8/2025 9:16:00 AM
苹果考虑在Safari中引入AI搜索功能,以应对用户转向新技术
苹果公司的高级副总裁埃迪・库伊(Eddy Cue)在美国司法部针对谷歌的反垄断诉讼中透露,苹果正积极考虑对 Safari 浏览器进行重大改造,计划 AI 驱动的搜索引擎集成到其中。 库伊提到,Safari 浏览器的搜索量在上个月首次出现下降,他将这一变化归因于用户越来越多地转向使用 AI 工具来满足其搜索需求。 图源备注:图片由AI生成,图片授权服务商Midjourney在证词中,库伊指出,包括 OpenAI、Perplexity 和 Anthropic 等 AI 搜索提供商,可能会在未来取代传统的搜索引擎如谷歌。
5/8/2025 9:00:45 AM
AI在线
三星One UI Watch 8迎来谷歌Gemini AI,跨应用操作更加智能便捷
近日,三星宣布将在其最新的 One UI Watch8系统中集成谷歌的 Gemini AI 助手,这一功能的引入将为用户带来更为流畅和高效的操作体验。 根据科技媒体 Android Authority 的报道,通过对 One UI Watch8的 APK 文件进行逆向编译,发现 Gemini AI 将不仅仅是取代原有的 Google Assistant,还将提供一系列增强的 AI 功能,尤其是在健康和健身领域,期待能为用户提供更多帮助。 Gemini AI 的核心新特性是 “Gemini Actions” 功能。
5/8/2025 9:00:45 AM
AI在线
微软采用谷歌的A2A标准,连接AI代理
微软宣布将支持 Google 推出的开放协议 ——Agent2Agent (A2A) 标准,旨在促进人工智能(AI)代理之间的相互通信。 通过这一协议,微软计划在其两个 AI 开发平台 Azure AI Foundry 和 C o p i l o t Studio 中引入 A2A 的支持,同时加入 GitHub 上的 A2A 工作组,积极参与协议的制定和工具的开发。 图源备注:图片由AI生成,图片授权服务商Midjourney在一篇博客文章中,微软表示:“通过支持 A2A 并基于我们的开放式编排平台进行构建,我们正在为下一代软件奠定基础,这些软件在设计上具备协作性、可观察性和自适应性。
5/8/2025 9:00:44 AM
AI在线
Mistral 推出新 AI 模型 Mistral Medium 3:高效与性能兼得
法国人工智能初创公司 Mistral 近日发布了其新款 AI 模型 ——Mistral Medium3。 这款模型在追求高效率的同时,依然保持了出色的性能表现,成为市场上的一大亮点。 Mistral 的数据显示,Mistral Medium3在所有基准测试中的表现达到了或超过了竞争对手 Anthropic 的 Claude Sonnet3.7模型的90%。
5/8/2025 9:00:44 AM
AI在线
知识图谱时如何修复LLM写出的糟糕SQL
得益于大型语言模型 (LLM),我们与数据交互的方式发生了根本性的变化。 如果你问你的 AI 助手:“显示第二季度按地区划分的销售趋势”,它几秒钟内就能给出答案。 这听起来很令人兴奋,但你很快就会意识到,结果往往是错误的。
5/8/2025 9:00:00 AM
晓晓
字节开源图像编辑黑科技!1/30参数1/13数据,性能提升9.19%
字节开源图像编辑新方法,比当前SOTA方法提高9.19%的性能,只用了1/30的训练数据和1/13参数规模的模型。 做到这一切无需额外预训练任务和架构修改,只需要让强大的多模态模型(如GPT-4o)来纠正编辑指令。 这一方法旨在解决现有图像编辑模型中监督信号有噪声的问题,通过构建更有效的编辑指令提升编辑效果。
5/8/2025 8:57:59 AM
量子位
到底 MCP 有什么魅力?十分钟让 AI 直接操作数据库!
这几天老是听到 MCP 的概念,为了让自己不那么 out ,昨天下班之后我也是抓紧去看了下这到底是何方神圣。 MCP,全称 Model Context Protocol,是一个开源协议,目的是为大语言模型(LLM)提供一个标准化的上下文接口。 也就是说,为各种应用对接 AI 提供了一个规范,就像 USB 接口一样。
5/8/2025 8:29:36 AM
co松柏
低价大模型 DeepSeek 实用指南
火爆全网的国产大模型 DeepSeek,其 API 价格仅为同类模型的几十分之一。 图片DeepSeek 网页端与 API 应用场景DeepSeek 网页端界面简洁直观,但 API 使用需要一定技巧。 本文将从对话、知识库、AI 翻译、AI 编程及 Python 调用等多个场景,分篇评测 DeepSeek API 的实际应用。
5/8/2025 8:10:25 AM
红绿灯灯灯灯
模型上下文协议(MCP)能否替代HTTP?二者又该如何协作?
译者 | 核子可乐审校 | 重楼随着AI原生应用与智能体系统的兴起,开发者社区正迅速迎接种种新兴技术、抽象与架构模式。 而作为大模型与生成式AI生态中的新成果,模型上下文协议(MCP)在引起广泛关注的同时,也让不少开发者感到困惑:作为新型传输协议,MCP会最终取代HTTP吗? 简单来讲:不会。
5/8/2025 7:38:36 AM
核子可乐
如果没有预测性AI,你的数据就浪费了
新的分析要求是在特定情境下进行描述性、预测性和规范性分析。 当我与CIO或项目赞助人会面时,我首先做的一件事就是绘制他们的分析成熟度曲线。 许多企业常常将仪表板与智能混为一谈,他们认为报告就是最终目标,但实际上,这只是第一步。
5/8/2025 7:05:00 AM
Vipin Jain
模型越新幻觉越重!AI幻觉扣住产业发展命脉
自诞生以来,人工智能大模型始终被“幻觉”问题困扰。 这里的“幻觉”,指的是大语言模型会将虚构信息当作真实事实输出。 实际上,“幻觉”这一表述相当委婉,它实则暴露出AI的核心缺陷——当前的大语言模型尚未达到真正意义上的智能水平。
5/8/2025 6:00:00 AM
小刀
大型语言模型参数高效微调技术详解(必看)
随着Transformer架构的广泛应用,以GPT为代表的大型语言模型(LLM)在自然语言处理领域取得了突破性进展。 这些模型通过"预训练 微调"的范式,在下游任务中展现出强大的性能。 然而,随着模型参数规模从数亿增长到数百亿甚至万亿,全量参数微调(Full Fine-tuning)面临以下挑战:计算资源瓶颈:全量微调需要消耗大量的计算资源和内存存储成本高昂:为每个下游任务单独存储微调模型成本巨大灾难性遗忘:全量微调易导致模型"遗忘"预训练阶段获得的知识过拟合风险:尤其在训练数据有限的情况下,全量微调易出现过拟合基于上述考量,参数高效微调技术(Parameter-Efficient Fine-Tuning, PEFT)应运而生。
5/8/2025 5:00:00 AM
口袋数据