AI在线 AI在线

SLM

AI大变局:拐点不在云端,而在边缘

AI模型开发转向边缘,将高性能计算带到设备端。 LLM在边缘面临功耗、可靠性和工业用例挑战,需SLM/VLM、分布式智能体及安全防护,谨慎部署。 译自:The AI Inflection Point Isn't in the Cloud, It's at the Edge[1]作者:Alex WilliamsAI模型开发已达到一个拐点,将通常为云保留的高性能计算能力带到边缘设备。
10/29/2025 1:11:00 AM
岱军

最新研究!告别“大材小用”!智能体任务的黄金法则是:用小模型(SLM)

一、研究背景任务定义这篇论文研究的核心问题是:小型语言模型(SLMs,参数量在1-12B之间)是否能够在智能体系统(Agentic Systems)中替代大型语言模型(LLMs)。 智能体系统指的是那些需要调用外部工具、生成结构化输出、执行函数调用的AI应用场景,比如:检索增强生成(RAG)API调用和工具使用代码生成和执行结构化数据提取研究动机长期以来,业界有个默认共识:"模型越大越好"。 但这篇论文挑战了这个观点,提出了一个颠覆性的发现:在智能体场景下,小模型不仅够用,而且往往更优秀。
10/15/2025 2:35:00 AM
ChallengeHub

小型革命:SLM、智能体人工智能与超级智能之路

过去十年的大部分时间里,人工智能领域被一个强大却终归存在局限的范式所主导——“越大越好”。 2010年代的里程碑式研究证实,扩大模型规模能带来可预测的性能提升,这一结论让“越大越好”的理念根深蒂固,进而引发了一场构建超大规模模型的竞赛,模型参数从数十亿一路突破至万亿级别。 在当时的认知里,通往高级智能的道路是一场垂直攀登,每一次突破都需要更多数据、更强算力以及更庞大的单体模型作为支撑。
9/28/2025 3:20:00 AM
大模型之路

浅析小语言模型在增强RAG系统中的作用

译者 | 布加迪审校 | 重楼小语言模型(SLM)是大语言模型(LLM)的紧凑版。 它们包含的参数通常少于大语言模型:大约30亿个参数或更少。 这使得它们相对轻量级,推理时间更快。
4/29/2025 8:09:39 AM
布加迪

GenAI遇上SLM:边缘计算的新纪元

小型语言模型(SLM)在效率、隐私和适应性之间实现了卓越的平衡,使其成为各种应用的理想选择。 译自GenAI Meets SLMs: A New Era for Edge Computing,作者 Pankaj Mendki。 让我们想象一个场景:一家医院的患者拥有自己的医疗记录。
4/3/2025 4:21:00 AM
岱军

解读小模型—SLM

大模型的世界几乎每天都在发生变化。 一方面,人们越来越重视开发更大、更强大的语言模型,以实现通用人工智能(AGI)。 这些大模型通常位于拥有数十万GPU的大型数据中心中。
12/2/2024 1:18:54 AM
曹洪伟

大模型已过时,小模型SLM才是未来?苹果正在研究这个

手机还是更适合小模型大模型虽然好,但我的笔记本和手机都跑不动呀。 就算勉强能跑起来,也是奇慢无比。 而与此同时,对适合移动和边缘设备的小模型的需求却在不断增长,因为这些模型似乎才能真正满足人们的日常需求。
10/31/2024 10:18:00 AM
机器之心

微软 Phi-3-vision 基准测试:和 Claude 3-haiku、Gemini 1.0 Pro 相当

微软在 Build 2024 大会上发布了 Phi-3 家族的最新成员--Phi-3-vision,主打“视觉能力”,能够理解图文内容,同时据称可以在移动平台上流畅高效运行。Phi-3-vision 是一款多模态小型语言模型(SLM),主要用于本地 AI 场景,该模型参数量为 42 亿,上下文长度为 128k token,能够为常规视觉推理任务和其他任务提供支持。那么 Phi-3-vision 有多厉害?微软今天发布了新的论文 [PDF],表示该 SLM 和 Claude 3-haiku、Gemini 1.0 Pr
5/28/2024 8:45:08 AM
故渊
  • 1