资讯列表
Anthropic 发布专为国家安全定制的 AI 模型,获亚马逊和谷歌支持
人工智能公司 Anthropic 推出了一款专为美国国家安全机构设计的 AI 模型套件,名为 Claude Gov。 这一产品已经得到了亚马逊和谷歌的战略支持,现阶段仅向持有最高安全许可的机构开放使用。 Claude Gov 模型套件是根据国防和情报部门的具体需求开发而成的。
6/6/2025 9:00:55 AM
AI在线
通义千问正式发布Qwen3-Embedding系列模型
近日,通义千问官方正式发布了Qwen3-Embedding系列模型,作为Qwen模型家族的新成员,该系列模型专为文本表征、检索与排序任务而设计。 Qwen3-Embedding系列基于Qwen3基础模型进行训练,充分继承了Qwen3在多语言文本理解能力上的显著优势。 该系列模型在多项基准测试中表现出色,特别是在文本表征和排序任务中展现了卓越性能。
6/6/2025 9:00:55 AM
AI在线
Anthropic谈为何切断 Windsurf 访问自家 AI 模型:聚焦长期合作客户
近日,Anthropic 的联合创始人兼首席科学官贾里德・卡普兰(Jared Kaplan)在接受外媒 TechCrunch 采访时,透露了公司决定限制 Windsurf 访问其 Claude AI 模型的原因。 此举是在有关 OpenAI 计划以30亿美元收购 Windsurf 的传闻传出后做出的,卡普兰表示:“我们的真正目标是为那些能够长期与我们合作的客户提供支持,而不是让短期客户享受我们的服务。 ”卡普兰进一步说明,Anthropic 已经切断了 Windsurf 对其 Claude3.5Sonnet 和 Claude3.7Sonnet 这两款编程 AI 模型的直接访问。
6/6/2025 9:00:55 AM
AI在线
大模型结构化推理优势难复制到垂直领域!最新法律AI评估标准来了,抱抱脸评测集趋势第一
大模型推理,无疑是当下最受热议的科技话题之一。 但在数学和物理等STEM之外,当LLM落到更多实际应用领域之中,大模型的推理能力又有多大的潜能和局限? 比如,如何评估大模型的推理能力在法律领域的应用,就在当前备受关注。
6/6/2025 9:00:00 AM
LLM 协作革命:Group Think 如何重塑推理边界
大家好,我是肆〇柒。 今天和大家聊聊 Group Think。 顾名思义,它通过让单个 LLM 模拟多个并行推理智能体,并以 token 级别的细粒度协作,提出了推理协作的新范式。
6/6/2025 8:57:42 AM
肆零柒
RL后训练步入超节点时代!华为黑科技榨干算力,一张卡干俩活
在大模型竞赛白热化的当下,「强化学习后训练」已成为突破LLM性能天花板的核心路径。 爆火出圈的OpenAI o1、DeepSeek-R1等模型,背后都是依靠RL后训练点石成金。 相较于预训练阶段的「广撒网」式知识获取,RL 后训练通过驱动模型与外部环境进行动态交互,直接塑造了LLM在复杂任务中的推理效能。
6/6/2025 8:55:00 AM
上海AI实验室造出首个「通才」机器人大脑:看懂世界+空间推理+精准操控全拿下
机器人的新大脑框架来了! 上海人工智能实验室联合多家单位提出了一种全新的通用具身智能大脑框架:Visual Embodied Brain,简称VeBrain。 该模型通过同时集成视觉感知、空间推理和机器人控制能力,可实现多模态大模型(MLLM)对物理实体的直接操控,使机器人能像人类一样“看到-思考-行动”。
6/6/2025 8:52:00 AM
阿里开源 Qwen3 新模型 Embedding 及 Reranker,带来强大多语言、跨语言支持
官方表示,在多项基准测试中,Qwen3-Embedding 系列在文本表征和排序任务中展现了卓越的性能。
6/6/2025 8:31:47 AM
清源
谷歌更新 Gemini 2.5 Pro 预览版模型至 06-05 版本,多项 AI 性能基准测试评分提升
谷歌于今年 3 月底发布了 Gemini 2.5 Pro 模型,紧接着又在 4 月推出了面向更广泛用户的轻量级版本 Gemini 2.5 Flash。两者目前仍处于预览阶段,但 Flash 版本已可通过 Gemini App 向全球用户开放体验。目前,谷歌再度更新 Google AI Studio 中的 Gemin 2.5 Pro 模型(更新至 06-05 版本),并声称该模型刷新了多项 AI 性能基准“跑分”
6/6/2025 7:56:28 AM
漾仔
马斯克 X 更新开发者协议,禁止第三方使用平台帖子训练 AI 模型
X 的隐私政策仍允许第三方“合作伙伴”在用户未选择退出的情况下,基于该平台的数据进行 AI 模型训练。此外,X 还会将用户数据输入其 AI 模型 Grok,用于训练目的。
6/6/2025 7:21:35 AM
清源
OpenAI付费企业用户猛增至300万 直击微软谷歌AI腹地
OpenAI周三宣布,自2月份以来,其企业用户群激增了50%,付费企业客户已达300万,与此同时,这家AI公司推出了一系列全新的工作场所工具,旨在与微软的企业级AI产品展开直接竞争。 这一里程碑是在推出几项新的面向企业的功能时公布的,凸显了OpenAI在可靠、安全的AI工具能够收取高价的企业市场中的积极扩张,该公司推出了新的“连接器”,这些连接器将ChatGPT与流行的商业应用程序集成在一起,还推出了一项名为“记录模式”(Record Mode)的会议转录功能,并对其深度研究(Deep Research)和Codex编码工具进行了增强。 “ChatGPT正在帮助企业转型,帮助员工更高效、更战略性地工作,”OpenAI的一位发言人告诉记者,“在过去的几个月里,我们一直在不断将ChatGPT发展成为一个对工作越来越有影响力的平台,提供了连接器、与ChatGPT集成的记录模式、Codex、图像生成、深度研究等商业产品。
6/6/2025 7:00:00 AM
Michael
LLM 的 SFT 与 RL:差异几何?
在大型语言模型(LLM)的训练领域,监督微调(SFT)和强化学习(RL)是两种备受瞩目的训练策略。 尽管它们各自有着独特的机制和侧重点,但笔者经过深入研究和实践观察发现,二者之间的差别并非如表面上那般显著,以下是具体的分析与对比。 一、核心原理的相近性SFT 的本质 :SFT 主要是利用标注好的数据集对预训练的 LLM 进行进一步训练,通过最小化模型输出与标注答案之间的差异,来调整模型的参数。
6/6/2025 4:10:00 AM
小智
结合LangGraph、DeepSeek-R1和Qdrant 的混合 RAG 技术实践
一、引言:混合RAG技术的发展与挑战在人工智能领域,检索增强生成(RAG)技术正成为构建智能问答系统的核心方案。 传统RAG通过向量数据库存储文档嵌入并检索相关内容,结合大语言模型(LLM)生成回答,有效缓解了LLM的“幻觉”问题。 然而,单一的稠密向量检索(如基于Transformer的嵌入模型)在处理关键词匹配和多义词歧义时存在局限性,而稀疏向量检索(如BM25)虽擅长精确关键词匹配,却缺乏语义理解能力。
6/6/2025 3:11:00 AM
大模型之路
三步搭建MCP服务器,让AI工具直接调用n8n工作流
今天我们将视角转向服务端实现。 n8n 自 1.88.0 版本起,引入了一个革命性特性——MCP Server Trigger 节点。 这一创新让开发者能够将复杂的工作流包装成标准化的 MCP 服务,通过 SSE(Server-Sent Events)协议对外发布。
6/6/2025 2:11:00 AM
林月半子聊AI
Qwen和DeepSeek为何都选YaRN?
这篇文章,我们还是从面试官的视角出发,一起来分析一下,如果你在面试现场被问到这个题目,应该如何回答? 1.面试官心理分析首先还是分析一下面试官的心理,面试官问这个问题,主要是想考察三点:第一,你知不知道长度外推这个概念? 很多同学可能听都没听过这个概念,那这个问题当然也就无从答起了。
6/6/2025 1:26:00 AM
丁师兄
《圣经》成书时间或被改写!AI竟发现《死海古卷》早于所罗门时代
就在刚刚,科学家用AI重新定义了《死海古卷》历史时间线! 许多卷轴其实比原先认为年代还要早很多,两卷《死海古卷》竟是《但以理书》的最早片段! 研究还显示,《传道书》很可能由无名作者在公元前三世纪完成,而非传统所称的所罗门王!
6/6/2025 1:25:00 AM
新智元
解决主体一致性了!FLUX.1 Kontext 深度测评+案例实操教程
嗨大家好! 假期愉快! 5 月 29 日,黑森林实验室发布了 FLUX.1 Kontext,目标是通过一个统一的框架处理多种图像任务,解决现有模型在多轮编辑中的一些关键痛点。
6/6/2025 1:15:53 AM
阿真Irene
“一代更比一代强”:现代 RAG 架构的演进之路
基于 RAG(检索增强生成)的 AI 系统,过去是,现在仍然是企业利用大语言模型(LLM)的最有价值的应用之一。 我记得差不多两年前我写了第一篇关于 RAG 的文章,那时候这个术语还未被广泛采用。 我当时描述的是一个以最基础方式实现的 RAG 系统。
6/6/2025 1:15:00 AM
Baihai IDP