AI在线 AI在线

新加坡国家AI计划“换芯”:弃用Meta Llama,拥抱阿里Qwen3-32B,开源模型Sea-Lion v4 登顶东南亚语言榜

新加坡人工智能计划AISG发布新一代大语言模型Qwen-Sea-Lion-v4,底层由Meta Llama全面切换为阿里巴巴“通义千问”Qwen3-32B,并在东南亚语言综合评估基准(Sea-Helm)夺得2000亿参数开源榜单第一名。 切换原因  - 语言适配:Llama对印尼语、泰语、马来语等低资源语言表现不佳;Qwen3预训练覆盖119种语言/方言,含36万亿token,原生多语架构降低后续训练门槛  - 分词优化:新模型放弃西方常用“句子分词器”,采用字节对编码(BPE),可无空格切分泰语、缅甸语字符,翻译准确率与推理速度显著提升  - 算力友好:量化后模型可在32GB内存消费级笔记本运行,契合东南亚大量中小企业算力稀缺场景训练数据  AISG贡献1000亿东南亚语言token,内容浓度13%,为Llama2的26倍;阿里运用“高级后训练”注入区域知识,使模型更好理解新加坡式英语、马来式英语等混用语言。 性能结果  Sea-Helm榜单显示,Qwen-Sea-Lion-v4在印尼语、越南语、泰语、马来语任务上平均领先原Llama基线8.4%,文档级推理与跨语言摘要指标均排名第一。

新加坡人工智能计划AISG发布新一代大语言模型Qwen-Sea-Lion-v4,底层由Meta Llama全面切换为阿里巴巴“通义千问”Qwen3-32B,并在东南亚语言综合评估基准(Sea-Helm)夺得<2000亿参数开源榜单第一名。

切换原因  

- 语言适配:Llama对印尼语、泰语、马来语等低资源语言表现不佳;Qwen3预训练覆盖119种语言/方言,含36万亿token,原生多语架构降低后续训练门槛  

- 分词优化:新模型放弃西方常用“句子分词器”,采用字节对编码(BPE),可无空格切分泰语、缅甸语字符,翻译准确率与推理速度显著提升  

- 算力友好:量化后模型可在32GB内存消费级笔记本运行,契合东南亚大量中小企业算力稀缺场景

训练数据  

AISG贡献1000亿东南亚语言token,内容浓度13%,为Llama2的26倍;阿里运用“高级后训练”注入区域知识,使模型更好理解新加坡式英语、马来式英语等混用语言。

性能结果  

Sea-Helm榜单显示,Qwen-Sea-Lion-v4在印尼语、越南语、泰语、马来语任务上平均领先原Llama基线8.4%,文档级推理与跨语言摘要指标均排名第一。

开源与落地  

模型已在Hugging Face、AISG官网免费开放下载,提供4/8位量化版本;新加坡政府将其纳入2023年启动的7000万新元国家级多模态计划,预计2026年在教育、医疗、金融等场景大规模部署。

相关资讯

原来,这些顶级大模型都是蒸馏的

「除了 Claude、豆包和 Gemini 之外,知名的闭源和开源 LLM 通常表现出很高的蒸馏度。 」这是中国科学院深圳先进技术研究院、北大、零一万物等机构的研究者在一篇新论文中得出的结论。 前段时间,一位海外技术分析师在一篇博客中提出了一个猜想:一些顶级的 AI 科技公司可能已经构建出了非常智能的模型,比如 OpenAI 可能构建出了 GPT-5,Claude 构建出了 Opus 3.5。
1/29/2025 6:40:00 PM
机器之心

全球开源大模型榜单揭晓,阿里通义千问独占鳌头

近日,全球最大人工智能开源社区 Huggingface 发布了最新的开源大模型排行榜(Open LLM Leaderboard),结果显示,排名前十的开源大模型全都是基于阿里通义千问(Qwen)开源模型进行二次训练的衍生模型。 这一成就标志着 Qwen 在开源 AI 领域的主导地位,进一步推动了其在全球的影响力。 Open LLM Leaderboard 被广泛认为是当前最权威的开源大模型榜单,测试维度涵盖了多个领域,包括阅读理解、逻辑推理、数学计算及事实问答等。
2/11/2025 11:55:00 AM
AI在线

IBM 强化 watsonx.ai:DeepSeek-R1蒸馏版 Llama 模型上线

IBM 近日宣布,其 AI 开发平台 watsonx.ai 现已支持 DeepSeek-R1蒸馏版的 Llama3.18B和 Llama3.370B模型。 DeepSeek 通过知识蒸馏技术,利用 R1模型生成的数据对多个 Llama和 Qwen变体进行了优化,进一步提升了模型性能。 在 watsonx.ai平台上,用户可以通过两种方式使用 DeepSeek 蒸馏模型。
2/11/2025 2:25:00 PM
AI在线