AI在线 AI在线

LLM

成本降低88%:阿里巴巴ZeroSearch技术颠覆AI训练模式

阿里巴巴集团研究人员近日推出一项名为"ZeroSearch"的突破性技术,彻底改变了训练人工智能系统搜索信息的方式。 这项创新技术通过模拟方法让大型语言模型(LLM)开发高级搜索功能,无需在训练过程中与真实搜索引擎交互,从而消除了对昂贵商业搜索引擎API的依赖。 解决成本与复杂性难题ZeroSearch解决了AI行业面临的两大关键挑战:搜索引擎返回文档质量的不可预测性,以及向谷歌等商业搜索引擎进行数十万次API调用所产生的高昂成本。
5/9/2025 10:01:50 AM
AI在线

如何估算大语言模型LLM 的 GPU 内存:用于本地运行 LLM 的 GPU 内存

随着 DeepSeek、GPT、Llama、Mistral 等大规模 LLM 的兴起,AI 从业者面临的最大挑战之一是确定需要多少 GPU 内存才能高效地服务于这些模型。 GPU 资源昂贵且稀缺,因此优化内存分配至关重要。 本指南将引导您使用一个简单而有效的公式来估算服务 LLM 所需的 GPU 内存。
5/9/2025 1:00:00 AM
晓晓

知识图谱时如何修复LLM写出的糟糕SQL

得益于大型语言模型 (LLM),我们与数据交互的方式发生了根本性的变化。 如果你问你的 AI 助手:“显示第二季度按地区划分的销售趋势”,它几秒钟内就能给出答案。 这听起来很令人兴奋,但你很快就会意识到,结果往往是错误的。
5/8/2025 9:00:00 AM
晓晓

从"快思考"到"慢思考":大型语言模型的推理能力革命

在人工智能快速发展的今天,大型语言模型(LLM)已经在多个领域展现出惊人的能力。 然而,当面对需要深度思考和复杂推理的任务时,传统LLM往往表现出明显的局限性。 这种局限性促使研究者们转向探索一种新型的模型范式——基于"慢思维"的推理LLM。
5/8/2025 2:02:02 AM
葱葱

ICML 2025 | 注意力机制中的极大值:破解大语言模型上下文理解的关键

大型语言模型(LLMs)在上下文知识理解方面取得了令人瞩目的成功。 近日,一项来自 ICML 2025 的新研究《Massive Values in Self-Attention Modules are the Key to Contextual Knowledge Understanding》揭示了大型语言模型中一个重要现象:在注意力机制的查询 (Q) 和键 (K) 表示中存在非常集中的极大值,而在值 (V) 表示中却没有这种模式。 这一现象在使用旋转位置编码 (RoPE) 的现代 Transformer 模型中普遍存在,对我们理解 LLM 内部工作机制具有重要意义。
5/7/2025 9:12:00 AM

SmallRye大模型简介:使用Langchain4J轻松向应用内引入AI服务

译者 | 核子可乐审校 | 重楼Langchain4J解决了哪些问题? Langchain4J 本质上是为 Java 开发者打造的工具箱,旨在简化向高级语言中集成 AI 功能(如聊天机器人或文本生成器)的过程,同时屏蔽底层复杂细节。 想象一下:我们想要构建一个能回答问题、生成内容或模拟人类对话的智能应用。
5/7/2025 8:14:58 AM
核子可乐

看不懂新开源的DS-Prover V2版本?解读来了,攻克像人类一样数学证明,达到SoTA水平,不知道如何测?样题来了

五一凌晨,DeepSeek终于更新了新开源的 DeepSeek-Prover V2的自述文件。 速览一下: - 解决近 90% 的 miniF2F 问题(88.9%) - 显著提高 PutnamBench 上的 SoTA 性能 - 在正式版本中对 AIME 24 和 25 问题取得了惊艳的通过率点评:亮点上来看,DeepSeek-Prove V2模型在死磕LLM在推理数学问题上能给出答案但却给不出严格正确的推理步骤的问题。 而且在一中先进模型中达到了SoTA的水平,图四是前十榜单。
5/1/2025 8:33:20 AM

阿里重磅发布Qwen3最佳开源LLM,击败 DeepSeek-R1,Llama4

一、Qwen 系列模型发展脉络回溯Qwen 系列模型是阿里云自主研发的成果,其诞生顺应了人工智能领域对强大语言处理能力不断追求的趋势。 自初代模型推出以来,便以高效的架构设计和扎实的预训练基础,在自然语言处理(NLP)任务中初显身手。 随着技术的迭代,Qwen 模型持续进化,参数规模不断扩大,训练数据日益丰富多样,在语言理解、生成等基础能力上稳步提升。
4/29/2025 10:39:46 AM
大模型之路

北大物院200人合作,金牌得主超50人!PHYBench:大模型究竟能不能真的懂物理?

本项目由北京大学物理学院朱华星老师、曹庆宏副院长统筹指导。 基准设计、项目管理以及数据整合的主要工作由学生核心团队完成,核心成员包括仇是、郭绍阳、宋卓洋、孙韫博、蔡则宇、卫家燊、罗天宇等。 项目还得到了北京计算科学研究中心罗民兴院士和人工智能研究院张牧涵老师的鼎力支持。
4/29/2025 9:08:00 AM
机器之心

MCP安全噩梦终结者:Agent框架如何重构AI防护新范式?​

译者 | 朱先忠审校 | 重楼引言目前,Anthropic公司推出的多代理上下文协议(MCP)备受业界关注。 MCP通常被称为“AI代理的USB-C”,它承诺将标准化代理之间的通信方式。 这个想法很简单:通过一个通用接口连接不同的AI代理和工具,让它们共享内存,并跨任务重用功能。
4/29/2025 8:15:41 AM
朱先忠

70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍

人人都想有一个自己的DeepSeek,但并不是人人都有「一打」96GB显存的H20。 虽然量化可以极大地降低模型对于显存的需求,但它本质上是一种有损压缩技术。 换句话说就是,量化模型的输出分布不可避免地会受到影响,进而降低LLM的准确性和可靠性。
4/27/2025 9:15:40 AM
新智元

揭秘 RAG:为什么说它是让大语言模型(LLM)更聪明的秘密武器?

现在人工智能(AI)很火,尤其是像 ChatGPT 这样的大语言模型(LLM),它们能聊天、写文章、写代码,感觉无所不能。 但有时候,它们也会犯一些小错误,比如信息过时了,或者一本正经地胡说八道(这叫“幻觉”),或者你问它一些你们公司内部的事情,它就完全不知道了。 为了解决这些问题,科学家们想出了一个聪明的办法,叫做RAG。
4/25/2025 10:03:12 AM
用户007

大模型向量去重的N种解决方案!

简单来说,“向量”Vector 是大模型(LLM)在搜索时使用的一种“技术手段”,通过向量比对,大模型能找出问题的相关答案,并且进行智能回答。 向量简介Vector 是向量或矢量的意思,向量是数学里的概念,而矢量是物理里的概念,但二者描述的是同一件事。 “定义:向量是用于表示具有大小和方向的量。
4/24/2025 11:09:13 AM
磊哥

LLM 推理引擎之争:Ollama or vLLM ?

Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的计算架构的模型推理框架。 在人工智能领域,模型的推理能力是衡量其性能的核心指标之一,直接影响其在复杂任务中的表现。 随着自然语言处理(NLP)和大规模语言模型(LLM)技术的迅猛发展,众多创新模型不断涌现,为开发者提供了多样化的选择。
4/24/2025 10:26:40 AM
Luga Lee

Transformer原作打脸DeepSeek观点?一句Wait就能引发反思,RL都不用

只要预训练,LLM就能涌现自我反思、自我纠正! Transformer首席作者Ashish Vaswani带队的新研究引来万人围观! 强化学习已证明能有效激发大语言模型的反思能力。
4/23/2025 9:36:23 AM
新智元

连Claude 3.5都败下阵来,大语言模型能否定位软件服务的故障根因?

论文的第一作者是香港中文大学(深圳)数据科学学院三年级博士生徐俊杰龙,指导老师为香港中文大学(深圳)数据科学学院的贺品嘉教授和微软主管研究员何世林博士。 贺品嘉老师团队的研究重点是软件工程、LLM for DevOps、大模型安全。 大型语言模型(LLM)近期在软件工程领域取得了显著进展,催生了 MetaGPT、SWE-agent、OpenDevin、Copilot 和 Cursor 等大量研究成果与实际应用,深刻影响着软件开发的方法论和实践。
4/23/2025 9:06:00 AM
机器之心

142页长文揭秘DeepSeek-R1「思维大脑」!开启全新「思维链学」研究

你是否曾想过DeepSeek-R1为什么能「思考」? 距离DeepSeek-R1这只「巨鲸」引发的全球AI海啸似乎刚刚平静下来,但推理模型已经成为了AI宠儿。 不论是Gemini  2.5Pro,还是o3,o4-mini,以及所有人都在期待的DeepSeek-R2,都是推理模型。
4/22/2025 3:32:06 PM
新智元

谷歌新型 AI 系统在复杂诊断中表现超越医生

译者 | 刘汪洋审校 | 重楼最近,《自然》杂志上的一篇新论文引发了关注。 它展示了谷歌如何用 AI 改变医疗的未来:通过自动化技术降低成本、减轻医生负担,使他们能够将更多精力投入到复杂病例的处理中。 当你带着疑难杂症就医时,自然希望得到准确的诊断。
4/22/2025 8:13:39 AM
刘汪洋