AI在线 AI在线

Liquid AI推出Hyena Edge,开创智能手机边缘设备的新时代

Liquid AI近日在国际学习表示会议(ICLR)2025前发布了新款模型 “Hyena Edge”。 这是一款基于卷积的多混合模型,旨在为智能手机及其他边缘设备提供更高效的人工智能解决方案。 该公司成立于波士顿,源自麻省理工学院(MIT),致力于超越目前大多数大型语言模型(LLM)所依赖的 Transformer 架构。

Liquid AI近日在国际学习表示会议(ICLR)2025前发布了新款模型 “Hyena Edge”。这是一款基于卷积的多混合模型,旨在为智能手机及其他边缘设备提供更高效的人工智能解决方案。该公司成立于波士顿,源自麻省理工学院(MIT),致力于超越目前大多数大型语言模型(LLM)所依赖的 Transformer 架构。

QQ_1745721153040.png

Hyena Edge 在计算效率和语言模型质量方面均表现出色。根据实测数据,在三星 Galaxy S24Ultra 手机上,Hyena Edge 的延迟更低,内存占用更少,并且在各项基准测试中表现优于相同参数的 Transformer++ 模型。这一新架构的设计标志着边缘人工智能技术的新纪元。

与市面上大多数为移动部署设计的小型模型不同,Hyena Edge 放弃了传统的重注意力设计,取而代之的是利用 Hyena-Y 系列的门控卷积,替换了三分之二的分组查询注意力(GQA)操作。Hyena Edge 的架构源于Liquid AI的 “定制架构合成”(STAR)框架,该框架通过进化算法自动设计模型结构,以优化延迟、内存使用和模型质量等多个硬件特定目标。

为验证 Hyena Edge 的实际应用能力,Liquid AI在三星 Galaxy S24Ultra 上进行了测试,结果显示该模型在较长序列长度下的预填充和解码延迟速度比 Transformer++ 快了30%。同时,在所有测试的序列长度下,Hyena Edge 的内存使用量均低于传统模型,这使其成为资源受限环境中的理想选择。

QQ_1745721067890.png

在基准测试方面,Hyena Edge 在1000亿个标记上进行了训练,并在包括 Wikitext、Lambada、PiQA、HellaSwag、Winogrande、ARC-easy 和 ARC-challenge 在内的多个标准小型语言模型测试中表现出色,尤其在 Wikitext 和 Lambada 的困惑度评分上有显著提高,PiQA、HellaSwag 和 Winogrande 的准确率也有所提升。

Liquid AI还计划在未来几个月内开源一系列Liquid基础模型,包括 Hyena Edge,旨在构建能够从云数据中心扩展到个人边缘设备的高效通用人工智能系统。Hyena Edge 的成功不仅在于其卓越的性能指标,更展示了自动化架构设计的潜力,为未来的边缘优化人工智能设定了新的标准。

官方博客:https://www.liquid.ai/research/convolutional-multi-hybrids-for-edge-devices

划重点:  

🌟 Hyena Edge 是Liquid AI公司推出的新型卷积模型,专为智能手机等边缘设备设计。  

🚀 该模型在计算效率和内存使用上优于传统的 Transformer++ 模型,适合资源受限的环境。  

📈 Hyena Edge 在多个标准语言模型基准测试中表现卓越,并计划在未来开源以促进技术普及。

相关资讯

MIT 创企 Liquid AI 推出企业级小模型训练蓝图LFM2

MIT 创企 Liquid AI 推出企业级小模型训练蓝图LFM2

Liquid AI 是一家成立于2023年的初创公司,由麻省理工学院的计算机科学家创办。 2025年7月,该公司发布了 Liquid Foundation Models 系列的第二代产品(LFM2),旨在利用 全新“liquid” 架构提供市场上最快的设备端基础模型。 其训练和推理效率使得小模型成为云端大型语言模型(如 OpenAI 的 GPT 系列和谷歌的 Gemini)的有力竞争者。
12/2/2025 10:50:58 AM AI在线
2.6B参数碾压百亿级巨兽!Liquid AI最新实验性模型LFM2-2.6B-Exp发布

2.6B参数碾压百亿级巨兽!Liquid AI最新实验性模型LFM2-2.6B-Exp发布

圣诞节当天,知名边缘AI初创公司Liquid AI正式发布了其最新实验性模型LFM2-2.6B-Exp,这一仅有2.6B(26亿)参数的小型开源模型,在多项关键基准测试中表现出色,尤其在指令跟随能力上超越了参数量高达数百亿的DeepSeek R1-0528,引发业界广泛热议,被誉为“最强3B级模型”。 模型背景:纯强化学习驱动的实验突破LFM2-2.6B-Exp基于Liquid AI第二代Liquid Foundation Models(LFM2)系列的2.6B基础模型,通过纯强化学习(RL)方式进行后训练优化,无需监督微调暖启动或大型教师模型蒸馏。 该模型继承了LFM2的混合架构优势,结合短程门控卷积和分组查询注意力(GQA),支持32K上下文长度,专为边缘设备(如手机、笔记本、物联网设备)设计,实现高效本地部署。
12/26/2025 3:11:42 PM AI在线
Liquid AI 发布 LFM2.5:一款面向边缘设备的小型 AI 模型家族

Liquid AI 发布 LFM2.5:一款面向边缘设备的小型 AI 模型家族

Liquid AI 最近推出了 LFM2.5,这是一个新一代的小型基础模型家族,基于 LFM2架构,专注于边缘设备和本地部署。 该模型家族包括 LFM2.5-1.2B-Base 和 LFM2.5-1.2B-Instruct,同时扩展了日语、视觉语言和音频语言的变种。 这些模型以开源权重形式发布在 Hugging Face 上,并通过 LEAP 平台进行展示。
1/7/2026 4:46:59 PM AI在线