AI在线 AI在线

大型语言模型

月之暗面联手UCLA推新模型Mixture-of-Expert,提升语言模型训练效率

在人工智能领域,训练大型语言模型(LLMs)已成为推动技术进步的重要方向。 然而,随着模型规模和数据集的不断扩大,传统的优化方法 —— 特别是 AdamW—— 逐渐显露出其局限性。 研究人员面临着计算成本高、训练不稳定等一系列挑战,包括梯度消失或爆炸、参数矩阵更新不一致及分布式环境下的资源需求高等问题。
2/24/2025 9:25:00 AM
AI在线

企业为何纷纷转向小AI模型?

当科技巨头们还在比拼千亿参数时,一场静悄悄的AI效率革命正在改写商业规则,从医疗诊断到零售库存管理,企业开始用“小模型”解决“大问题”。 大型语言模型因其多功能性、广泛的领域知识和解决复杂多步骤问题的能力而广受欢迎。 相比之下,小型模型为企业提供了一种资源消耗更少的方式,能够利用定制化的专业知识完成特定任务。
2/21/2025 8:00:00 AM
Lindsey Wilkinson

​AI大语言模型幻觉排行榜:Gemini 2.0 Flash幻觉最低

近日,Vectara 发布了一份名为 “幻觉排行榜” 的报告,比较了不同大型语言模型(LLM)在总结短文档时产生幻觉的表现。 这份排行榜利用了 Vectara 的 Hughes 幻觉评估模型(HHEM-2.1),该模型定期更新,旨在评估这些模型在摘要中引入虚假信息的频率。 根据最新数据,报告指出了一系列流行模型的幻觉率、事实一致性率、应答率以及平均摘要长度等关键指标。
2/20/2025 9:14:00 AM
AI在线

DeepSeek 背后的技术:GRPO,基于群组采样的高效大语言模型强化学习训练方法详解

强化学习(Reinforcement Learning, RL)已成为提升大型语言模型(Large Language Models, LLMs)推理能力的重要技术手段,特别是在需要复杂推理的任务中。 DeepSeek 团队在 DeepSeek-Math [2] 和 DeepSeek-R1 [3] 模型中的突破性成果,充分展示了强化学习在增强语言模型数学推理和问题解决能力方面的巨大潜力。 这些成果的取得源于一种创新性的强化学习方法——群组相对策略优化(Group Relative Policy Optimization, GRPO)。
2/17/2025 10:40:20 AM
佚名

微软发布 OmniParser V2.0:把屏幕截图转化成LLM可处理的结构化格式

微软近日发布了 OmniParser V2.0,这是一个旨在将用户界面(UI)截图转换为结构化格式的全新解析工具。 OmniParser 能够提高基于大型语言模型(LLM)的 UI 代理的性能,帮助用户更好地理解和操作屏幕上的信息。 该工具的训练数据集包括一个可交互图标检测数据集,该数据集从热门网页中精心挑选并自动注释,以突出可点击和可操作的区域。
2/17/2025 10:28:00 AM
AI在线

Meta 创新推出 “连续概念混合” 框架,推动 Transformer 预训练新革命

近年来,随着大型语言模型(LLMs)的快速发展,自然语言处理领域经历了前所未有的变革。 这些技术如今广泛应用于代码助手、搜索引擎和个人 AI 助手等场景,展现了强大的能力。 然而,传统的 “下一个 token 预测” 范式存在一定局限性,尤其是在处理复杂推理和长期任务时,模型需要经历大量训练才能掌握深层次的概念理解。
2/17/2025 10:05:00 AM
AI在线

HuggingFace发布AI Agent课程

Hugging Face 近期推出了一门名为 “Agent课程” 的在线学习课程,旨在帮助学习者深入理解智能Agent的基础知识及应用。 课程内容丰富,共分为五个单元,从Agent的基本概念到最终的作业评估,循序渐进,帮助学员掌握所需技能。 课程的首个单元为 “欢迎来到课程”,提供了课程的概述、指导方针以及所需工具,确保学员在学习过程中拥有良好的基础。
2/12/2025 9:18:00 AM
AI在线

研究表明:AI工具能悄无声息地改变我们的观点

大型语言模型,那些能对我们的提示给出人类回答的智能聊天机器人,会影响我们的观点吗? 《IEEE智能系统》杂志中描述的一项实验表明,答案是肯定的。 这项研究的影响对教师批改论文、员工评估以及许多其他可能影响我们生活的情况都有深远意义。
2/12/2025 8:30:00 AM
Yu

AI代理平台选型与实施:五大关键步骤助你成功落地

随着代理型AI以惊人的速度发展,以下是选择AI代理构建平台的一些建议,以便你和你的团队以及供应商能够同时实现创新。 作为CIO,今年你的IT团队可能正在从评估和部署独立的第三方AI软件包,迅速转向在整个客户端和内部业务应用中集成自定义AI代理,以实现更进一步的自动化和生产效率。 他们可能正在使用至少一个AI代理构建平台,甚至可能同时使用多个。
2/11/2025 11:59:26 AM
Nicholas D. Evans

新的训练范式可以防止机器学习模型学习虚假相关性

译者 | 李睿审校 | 重楼机器学习领域长期存在的问题之一是错误相关性的记忆。 例如:假设开发人员正在开发一个深度神经网络对陆地鸟类和海洋鸟类的图像进行分类。 他们使用数千张标记过的图像训练模型,这个模型在训练集和测试集上的表现都非常出色。
2/11/2025 8:11:56 AM
李睿

Meta AI推出MILS系统 教导 LLMs无需专门培训即可处理多媒体数据

Meta AI的研究人员与学术伙伴共同开发了一种创新系统——MILS(多模态迭代LLM求解器),该系统能在无需经过专门训练的情况下,教大型语言模型处理图像、视频和音频。 MILS依赖于语言模型的自然问题解决能力,而非大量的数据训练,展现了其独特的优势。 MILS的工作原理是通过将两个AI模型配对来进行任务解决:一个是“生成器”,负责提出任务解决方案,另一个是“评分器”,用来评估生成方案的效果。
2/10/2025 11:04:00 AM
AI在线

PromptLayer:为非技术用户打造的AI应用开发新工具

随着生成式人工智能(GenAI)的快速崛起,PromptLayer 作为一家位于纽约的初创公司,迅速进入了提示工程这一新兴领域。 提示工程是指为 AI 聊天机器人提供精确指令,以获取有用的输出。 PromptLayer 的创始人贾里德・佐内拉赫(Jared Zoneraich)和乔纳森・佩多恩(Jonathan Pedoeem)最初开发了一个工具,用于跟踪他们自己使用 AI 聊天机器人的提示,意外获得了市场的热烈反响。
2/8/2025 10:10:00 AM
AI在线

基于Langbase Memory Agents将任意LLM转为 可对话式AI文档助手

译者 | 刘涛审校 | 重楼在 2025 年当下,大语言模型(LLM)依旧无法获取用户的私有数据。 当用户向其询问某些与个人相关的问题时,大语言模型要么凭借推测进行回应,要么给出错误的解答。 这体现了大语言模型存在的固有局限性——它们仅基于公开信息进行训练,无法获取用户的私有上下文信息。
2/7/2025 8:44:46 AM
刘涛

Realbotix 推出第三方 AI 集成,提升人形机器人交互体验

Realbotix 公司作为人形机器人和伴侣型人工智能的领先制造商,正在通过推出大型语言模型(LLM)集成和高级定制功能,进一步拓展其技术能力。 这些新功能计划于2025年2月推出,将使用户能够与包括 OpenAI 的 ChatGPT、Meta 的 Llama、谷歌的 Gemini 以及新推出的 DeepSeek R1在内的多种主流 AI 平台进行无缝连接。 Realbotix 支持的多种第三方 AI 平台,为其机器人系统带来了更高的定制化水平。
2/6/2025 10:39:00 AM
AI在线

Meta-CoT:通过元链式思考增强大型语言模型的推理能力

大型语言模型(LLMs)在处理复杂推理任务时面临挑战,这突显了其在模拟人类认知中的不足。 尽管 LLMs 擅长生成连贯文本和解决简单问题,但在需要逻辑推理、迭代方法和结果验证的复杂任务(如高级数学问题和抽象问题解决)中,其能力有所欠缺。 这种局限性源于 LLMs 的信息处理方式。
1/27/2025 12:03:11 PM
Kaushik Rajan

AI在这方面存在致命缺陷!专家:AI不应用于重要应用

在当前的技术环境下,人工智能(AI)引发了广泛的讨论。 德蒙特福特大学的网络安全教授 Eerke Boiten 对此表示,现有的 AI 系统在管理和可靠性方面存在根本性缺陷,因此不应被用于重要应用。 Boiten 教授指出,当前的 AI 系统大多依赖于大型神经网络,尤其是生成式 AI 和大型语言模型(如 ChatGPT)。
1/25/2025 3:56:00 PM
AI在线

​字节跳动推出 PaSa:基于大语言模型的智能学术论文搜索代理

在学术研究领域,文献检索是一项复杂且重要的信息获取任务。 研究人员需要能够处理复杂的、专业知识领域的检索能力,以满足细致的研究需求。 然而,现有的学术搜索平台,如谷歌学术,往往难以应对这些复杂的研究查询。
1/25/2025 9:34:00 AM
AI在线

Sakana AI 的 Transformer² 模型突破 LLM 限制,实现动态推理

Sakana AI 是一家专注于自然启发算法的人工智能研究实验室,近日推出了一种名为 Transformer² (Transformer-squared) 的创新自适应语言模型。 该模型无需昂贵的微调,即可在推理过程中动态学习并适应新任务,这标志着大型语言模型 (LLM) 技术发展的重要一步。 Transformer² 的核心创新在于其独特的两步动态权重调整机制。
1/24/2025 10:48:00 AM
AI在线