大型语言模型
颠覆传统!新多智能体框架OWL获17K Star,超越OpenAI开创智能协作新时代
随着大型语言模型(LLM)的迅猛发展,单一智能体在应对复杂现实任务时显露出诸多局限。 为了解决这个问题,香港大学与 camel-ai 等多家机构联合推出了一种名为 Workforce 的全新多智能体框架,并配套了一种名为 OWL(Optimized Workforce Learning)的训练方法。 最近,这一创新成果在权威基准测试 GAIA 上获得了69.70% 的准确率,不仅刷新了开源系统的记录,还超越了 OpenAI Deep Research 等多家商业系统。
6/17/2025 3:01:49 PM
AI在线
微软AI重磅发布Code Researcher:58%崩溃解决率震撼业界!
Microsoft AI重磅发布了一款名为Code Researcher的深度研究代理工具,专为处理大型系统代码和提交历史而设计。 这一创新工具旨在应对复杂系统代码(如Linux内核)中调试和修复崩溃的挑战,标志着AI在软件开发领域的又一次重大突破。 AIbase从最新公开信息中获悉,Code Researcher通过多步骤推理和语义分析,显著提升了系统级软件维护的效率和准确性。
6/16/2025 10:10:03 AM
AI在线
迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗
如果大型语言模型能够推理,但没有人能够看到它是如何推理的,那么它真的在思考吗? 简而言之,像 GPT-4 这样的大型语言模型 (LLM) 展现出卓越的能力,但其运作方式却如同“黑匣子”,这意味着它们的内部决策过程在很大程度上是不透明的,甚至对其创建者而言也是如此。 本系列文章综合了近期关于 LLM 可解释性的研究,重点关注这些模型的推理方式、其解释的可靠性(思维链)以及对安全性和部署的影响。
6/16/2025 2:30:00 AM
晓晓
突破传统!FUDOKI 模型让多模态生成与理解更灵活、更高效
近年来人工智能领域发生了翻天覆地的变化,尤其是大型语言模型(LLMs)在多模态任务上取得了显著进展。 这些模型在理解和生成语言的能力上展现出了强大的潜力,但目前大多数多模态模型依然采用自回归(AR)架构,推理过程较为单一、缺乏灵活性。 为此,香港大学和华为诺亚方舟实验室的研究团队提出了一种全新的模型 ——FUDOKI,旨在打破这一局限。
6/10/2025 7:00:56 PM
AI在线
多模态LLM+RAG:突破生成瓶颈的下一代AI架构革命
译者 | 朱先忠审校 | 重楼通过整合文本、图像、音频等数据,多模态大型语言模型(MLLM)开始突破传统RAG的文本局限,赋予AI感知能力。 其核心架构采用CLIP、Whisper等编码器实现跨模态语义统一,通过投影层对齐多模态信息。 不过,多模态大型语言模型的评估需要综合检索质量、生成忠实度及跨模态一致性等一系列指标实现。
6/9/2025 8:42:23 AM
朱先忠
IT技术人必知的八大专业AI模型
译者 | 涂承烨审校 | 重楼不到十年前,能与计算机进行有意义的对话的想法还只是科幻小说。 但今天,数以百万计的人与AI助手聊天,根据文本描述创作令人惊叹的艺术作品,并每天使用这些AI工具/系统来理解图像和执行高级任务。 这一进步由许多专业AI模型驱动,每个模型都有其独特的功能和应用。
6/4/2025 8:31:48 AM
涂承烨
LLM可以在没有采用强化学习或大型数据集的情况下学习推理吗?
译者 | 李睿审校 | 重楼针对提升LLM推理能力面临的挑战,斯坦福大学研究人员提出了“思考、修剪、训练”(TPT)框架,让LLM利用自生成且验证正确的数据迭代优化。 研究表明,无需强化学习、大型数据集或外部教师模型,TPT可以使较小模型推理性能媲美甚至超越大模型,凸显了TPT框架在提升模型推理能力和准确性的潜力。 目前,缺乏高质量的训练数据仍然是提高大型语言模型(LLM)推理能力的主要障碍之一。
5/30/2025 10:50:27 AM
李睿
Ollama v0.8发布!AI流式响应+实时搜索,本地模型也能秒变智能助手!
Ollama官方宣布推出其最新版本Ollama v0.8,为本地运行大型语言模型(LLM)带来了突破性升级。 新版本引入了流式传输响应和工具调用功能,支持实时网络搜索等交互场景,显著提升了本地AI的实用性和灵活性。 AIbase为您整理了Ollama v0.8的核心亮点及其对AI生态的影响。
5/29/2025 6:00:54 PM
AI在线
Meta 团队研究发现:简化推理链条能显著提升 AI 准确率
近期,Meta 的 FAIR 团队与耶路撒冷希伯来大学的研究人员联合发布了一项新研究,表明减少大型语言模型的推理时间可以显著提高其在复杂推理任务中的表现。 研究结果显示,使用较短推理链的 AI 模型准确率提高了34.5%,这一发现对当前 AI 行业的假设提出了挑战。 图源备注:图片由AI生成,图片授权服务商Midjourney在这项研究中,作者指出,长时间的思考链条并不一定能够带来更好的推理能力,反而会导致计算资源的浪费。
5/29/2025 4:00:54 PM
AI在线
AlphaEvolve: 谷歌DeepMind迈向通用人工智能(AGI)的突破性一步
译者 | 李睿审校 | 重楼谷歌DeepMind推出的AlphaEvolve旨在自主发现算法和科学解决方案。 它基于进化计算原理,通过LLM驱动的独立进化流程,不断优化代码。 AlphaEvolve不仅超越人类专家设计的算法,还在数学和谷歌基础设施优化上取得突破。
5/29/2025 8:19:49 AM
李睿
Mistral 推出全新 Agents API:助力开发者构建智能 AI 代理
Mistral 公司近日发布了其全新的 Agents API,这是一个专为开发者设计的框架,旨在简化 AI 代理的创建,代理可以执行多种任务,例如运行 Python 代码、生成图像以及进行检索增强生成(RAG)。 这一 API 的推出,旨在为大型语言模型(LLMs)提供一个统一的环境,使其能够与多个工具和数据源以结构化且持久的方式进行交互。 Agents API 建立在 Mistral 的语言模型基础上,集成了多个内置连接器。
5/28/2025 10:01:01 AM
AI在线
阿里突破性发布QwenLong-L1-32B:首个强化学习训练的长文本推理模型,性能媲美Claude-3.7
阿里巴巴今日正式发布QwenLong-L1-32B,这是一款专为长上下文推理设计的大型语言模型,标志着AI长文本处理能力的重大突破。 该模型在性能表现上超越了o3-mini和Qwen3-235B-A22B,与Claude-3.7-Sonnet-Thinking达到相当水平。 技术创新亮点QwenLong-L1-32B最大的技术突破在于其是全球首个通过强化学习训练的长文本情境推理模型。
5/27/2025 10:01:20 AM
AI在线
开创性扩散思维链:让人工智能更具创造力和灵活性
在近年来的人工智能研究中,思维链的概念越来越受到重视,尤其是在大型语言模型的训练和推理中。 最近,西湖大学 MAPLE 实验室的齐国君教授团队首次提出了一种新颖的 “扩散式发散思维链”,这是一种为扩散语言模型量身定制的全新推理方式。 传统的大型语言模型通常采用线性思维链,即通过逐步推理生成答案。
5/27/2025 10:01:20 AM
AI在线
并行扩展(Parallel Scaling):一种新型语言模型扩展范式(万字)
“ PARSCALE 作为一种新型的语言模型扩展范式,通过增加并行计算次数 P,在保持参数规模几乎不变的情况下,能够显著提升模型的推理能力。 ”大家好,我是肆〇柒。 今天,我们来聊一项可以改变语言模型性能的技术——PARSCALE(Parallel Scaling)。
5/22/2025 4:00:00 AM
肆零柒
新的自主式AI工具带来新的威胁:智能体泛滥
你可能已经拥有一个用于开发和管理智能体的平台,甚至可能有两个或更多,这种智能体的泛滥使得智能体能够在企业的更多领域中运作,但也带来了更高的复杂性、增加了安全顾虑,并可能损害投资回报率。 在过去的一年里,供应商们一直在急于将智能体产品添加到他们的产品组合中。 微软、AWS、谷歌、IBM、Salesforce、ServiceNow、Workday和SAP都已经涉足这一领域,而数据管理软件提供商Informatica本周也承诺将在其智能数据管理云中添加智能体,以自动化数据处理流程。
5/20/2025 7:00:00 AM
Anirban
体验Fellou AI,告别谷歌和ChatGPT
译者 | 李睿审校 | 重楼网页搜索体验如今正在快速改进,用户无需浏览大量网页即可获取准确信息。 Fellou作为新的浏览代理工具,能够理解用户需求,自动搜索、创建报告、跨网站工作、安全登录私人网站,为用户节省时间,提升搜索体验。 回顾过去一年,人们浏览网页的方式发生了翻天覆地的变化。
5/16/2025 8:35:07 AM
李睿
即使最好的保障措施也无法阻止大语言模型被愚弄
在采访中,诺丁汉大学副教授Michael Pound分享了他对与大型语言模型(LLM)相关的网络安全风险的见解。 他讨论了CISO和安全团队在LLM使用方面存在的理解或准备上的最大差距,以及在将LLMs集成到业务运营中时保护敏感数据所需的预防措施。 你认为在LLM使用方面,CISO和安全团队在理解或准备上存在的最大差距是什么?许多安全专业人员——相当合理地——对LLM背后的机器学习原理并不精通。
5/12/2025 8:00:00 AM
Mirko Zorz
大型语言模型参数高效微调技术详解(必看)
随着Transformer架构的广泛应用,以GPT为代表的大型语言模型(LLM)在自然语言处理领域取得了突破性进展。 这些模型通过"预训练 微调"的范式,在下游任务中展现出强大的性能。 然而,随着模型参数规模从数亿增长到数百亿甚至万亿,全量参数微调(Full Fine-tuning)面临以下挑战:计算资源瓶颈:全量微调需要消耗大量的计算资源和内存存储成本高昂:为每个下游任务单独存储微调模型成本巨大灾难性遗忘:全量微调易导致模型"遗忘"预训练阶段获得的知识过拟合风险:尤其在训练数据有限的情况下,全量微调易出现过拟合基于上述考量,参数高效微调技术(Parameter-Efficient Fine-Tuning, PEFT)应运而生。
5/8/2025 5:00:00 AM
口袋数据
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
数据
大模型
Midjourney
开源
Meta
智能
微软
用户
AI新词
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
论文
LLM
代码
算法
芯片
Stable Diffusion
AI for Science
腾讯
苹果
Agent
Claude
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
人形机器人
研究
生成
AI视频
百度
大语言模型
Sora
工具
GPU
具身智能
RAG
华为
计算
字节跳动
AI设计
搜索
AGI
大型语言模型
视频生成
场景
深度学习
架构
DeepMind
视觉
预测
Transformer
伟达
编程
生成式AI
AI模型
特斯拉
亚马逊