AI在线 AI在线

LLM

阿里重磅发布Qwen3最佳开源LLM,击败 DeepSeek-R1,Llama4

一、Qwen 系列模型发展脉络回溯Qwen 系列模型是阿里云自主研发的成果,其诞生顺应了人工智能领域对强大语言处理能力不断追求的趋势。 自初代模型推出以来,便以高效的架构设计和扎实的预训练基础,在自然语言处理(NLP)任务中初显身手。 随着技术的迭代,Qwen 模型持续进化,参数规模不断扩大,训练数据日益丰富多样,在语言理解、生成等基础能力上稳步提升。
4/29/2025 10:39:46 AM
大模型之路

北大物院200人合作,金牌得主超50人!PHYBench:大模型究竟能不能真的懂物理?

本项目由北京大学物理学院朱华星老师、曹庆宏副院长统筹指导。 基准设计、项目管理以及数据整合的主要工作由学生核心团队完成,核心成员包括仇是、郭绍阳、宋卓洋、孙韫博、蔡则宇、卫家燊、罗天宇等。 项目还得到了北京计算科学研究中心罗民兴院士和人工智能研究院张牧涵老师的鼎力支持。
4/29/2025 9:08:00 AM
机器之心

MCP安全噩梦终结者:Agent框架如何重构AI防护新范式?​

译者 | 朱先忠审校 | 重楼引言目前,Anthropic公司推出的多代理上下文协议(MCP)备受业界关注。 MCP通常被称为“AI代理的USB-C”,它承诺将标准化代理之间的通信方式。 这个想法很简单:通过一个通用接口连接不同的AI代理和工具,让它们共享内存,并跨任务重用功能。
4/29/2025 8:15:41 AM
朱先忠

70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍

人人都想有一个自己的DeepSeek,但并不是人人都有「一打」96GB显存的H20。 虽然量化可以极大地降低模型对于显存的需求,但它本质上是一种有损压缩技术。 换句话说就是,量化模型的输出分布不可避免地会受到影响,进而降低LLM的准确性和可靠性。
4/27/2025 9:15:40 AM
新智元

揭秘 RAG:为什么说它是让大语言模型(LLM)更聪明的秘密武器?

现在人工智能(AI)很火,尤其是像 ChatGPT 这样的大语言模型(LLM),它们能聊天、写文章、写代码,感觉无所不能。 但有时候,它们也会犯一些小错误,比如信息过时了,或者一本正经地胡说八道(这叫“幻觉”),或者你问它一些你们公司内部的事情,它就完全不知道了。 为了解决这些问题,科学家们想出了一个聪明的办法,叫做RAG。
4/25/2025 10:03:12 AM
用户007

大模型向量去重的N种解决方案!

简单来说,“向量”Vector 是大模型(LLM)在搜索时使用的一种“技术手段”,通过向量比对,大模型能找出问题的相关答案,并且进行智能回答。 向量简介Vector 是向量或矢量的意思,向量是数学里的概念,而矢量是物理里的概念,但二者描述的是同一件事。 “定义:向量是用于表示具有大小和方向的量。
4/24/2025 11:09:13 AM
磊哥

LLM 推理引擎之争:Ollama or vLLM ?

Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的计算架构的模型推理框架。 在人工智能领域,模型的推理能力是衡量其性能的核心指标之一,直接影响其在复杂任务中的表现。 随着自然语言处理(NLP)和大规模语言模型(LLM)技术的迅猛发展,众多创新模型不断涌现,为开发者提供了多样化的选择。
4/24/2025 10:26:40 AM
Luga Lee

Transformer原作打脸DeepSeek观点?一句Wait就能引发反思,RL都不用

只要预训练,LLM就能涌现自我反思、自我纠正! Transformer首席作者Ashish Vaswani带队的新研究引来万人围观! 强化学习已证明能有效激发大语言模型的反思能力。
4/23/2025 9:36:23 AM
新智元

连Claude 3.5都败下阵来,大语言模型能否定位软件服务的故障根因?

论文的第一作者是香港中文大学(深圳)数据科学学院三年级博士生徐俊杰龙,指导老师为香港中文大学(深圳)数据科学学院的贺品嘉教授和微软主管研究员何世林博士。 贺品嘉老师团队的研究重点是软件工程、LLM for DevOps、大模型安全。 大型语言模型(LLM)近期在软件工程领域取得了显著进展,催生了 MetaGPT、SWE-agent、OpenDevin、Copilot 和 Cursor 等大量研究成果与实际应用,深刻影响着软件开发的方法论和实践。
4/23/2025 9:06:00 AM
机器之心

142页长文揭秘DeepSeek-R1「思维大脑」!开启全新「思维链学」研究

你是否曾想过DeepSeek-R1为什么能「思考」? 距离DeepSeek-R1这只「巨鲸」引发的全球AI海啸似乎刚刚平静下来,但推理模型已经成为了AI宠儿。 不论是Gemini  2.5Pro,还是o3,o4-mini,以及所有人都在期待的DeepSeek-R2,都是推理模型。
4/22/2025 3:32:06 PM
新智元

谷歌新型 AI 系统在复杂诊断中表现超越医生

译者 | 刘汪洋审校 | 重楼最近,《自然》杂志上的一篇新论文引发了关注。 它展示了谷歌如何用 AI 改变医疗的未来:通过自动化技术降低成本、减轻医生负担,使他们能够将更多精力投入到复杂病例的处理中。 当你带着疑难杂症就医时,自然希望得到准确的诊断。
4/22/2025 8:13:39 AM
刘汪洋

AI工具的广泛使用标志着恶意机器人活动的新时代

据Thales称,易于获取的AI工具的增多显著降低了网络攻击者的入门门槛,使他们能够大规模创建和部署恶意机器人。 十年来,自动化机器人流量首次超过人类产生的流量,在2024年构成所有网络流量的51%,这一转变在很大程度上归因于AI和大型语言模型(LLM)的兴起,它们简化了用于恶意目的的机器人的创建和扩展。 随着AI工具变得越来越容易获取,网络犯罪分子越来越多地利用这些技术来创建和部署恶意机器人,这些机器人现在占所有互联网流量的37%,较2023年的32%有显著增长,这是恶意机器人活动连续第六年增长,给致力于保护其数字资产的企业带来了安全挑战。
4/21/2025 4:39:09 PM

打破LLM的语境障碍:InfiniRetri vs RAG

译者 | 晶颜审校 | 重楼大型语言模型(LLM)正在重塑人工智能的格局,然其亦面临一项持续性挑战——检索和利用超出其训练数据的信息。 目前,有两种模式相左的方法可以解决这个问题:其一为InfiniRetri,该方法借助LLM自身的注意力机制,从长输入中检索相关上下文;其二是检索增强生成(RAG),它在生成响应前,动态地从结构化数据库获取外部知识。 每种方法都有其独特的优势、局限性和权衡之处。
4/21/2025 8:11:09 AM
晶颜

谷歌的“双子星”,正在围剿一众大模型

编辑 | 云昭继昨天凌晨OpenAI推出满血o3、o4-mini之后,没想到谷歌迈着“LLM王者”的步伐给出了自家的模型SOTA研究Gemini2.5 Flash。 如果说o3主打的是“干实事”,那么谷歌这次的新发布则是告诉我们:什么是“成本可控”的极致性价比。 这次的发布以后立马引来一众开发者的讨论,不过这次不是负面的,而是全面的好评。
4/18/2025 3:53:03 PM
云昭

当智能体失控时,企业将遭受重创

在采访中,AutoRABIT的CTO Jason Lord探讨了将智能体集成到现实世界中的系统所带来的网络安全风险。 诸如幻觉、提示注入和嵌入式偏见等问题可能会使这些系统成为易受攻击的目标。 Lord呼吁进行监督、持续监控和人为介入循环控制以应对这些威胁。
4/18/2025 11:22:57 AM
Mirko Zorz

字节跳动开源Liquid多模态模型,革新视觉与语言统一生成

人工智能领域迎来一项重大突破。 AIbase从社交媒体获悉,字节跳动于近日宣布开源其全新多模态生成模型Liquid,该模型以创新的统一编码方式和单一大语言模型(LLM)架构,实现了视觉理解与生成任务的无缝整合。 这一发布不仅展示了字节在多模态AI上的技术雄心,也为全球开发者提供了强大的开源工具。
4/16/2025 6:01:15 PM
AI在线

从黑箱到透明工厂:Anthropic用回路追踪技术给LLM装上思维监控屏​

译者 | 朱先忠审校 | 重楼引言多年来,基于Transformer的大型语言模型(LLM)在从简单的信息检索系统到能够进行编码、写作、开展研究的复杂智能体等一系列任务上取得了长足的进步。 然而,尽管这些模型功能强大,但它们在很大程度上仍然是黑匣子。 给定输入,它们可以完成任务,但我们缺乏直观的方法来理解任务的具体完成方式。
4/16/2025 8:05:00 AM
朱先忠

软件包幻觉:LLM可能会向粗心的开发人员提供恶意代码

大型语言模型倾向于“虚构”不存在的代码包,这可能会成为一种新型供应链攻击的基础,这种攻击被赛斯·拉森(Seth Larson,Python软件基金会的驻场安全开发人员)称为“slopsquatting”。 一种已知现象如今,许多软件开发人员使用大型语言模型(LLM)来辅助编程,然而,不幸的是,LLM在回答各种话题的问题时,会编造事实并自信地呈现出来,这一已知倾向也延伸到了编码领域。 这种情况已为人所知一段时间了。
4/16/2025 7:02:00 AM
Zeljka