AI在线 AI在线

Hugging Face上周最受欢迎模型榜单揭晓,AI创新热潮持续升温

Hugging Face近日公布了2025年4月第二周最受欢迎模型榜单,涵盖文本生成、图像生成到视频生成等多模态领域,凸显了AI技术的快速迭代与多元化应用。 据AIbase了解,本次榜单中的模型不仅展示了开源社区的创新活力,还反映了从低精度训练到多模态生成的技术趋势。 以下为榜单亮点解析,AIbase编辑团队为您带来专业解读。

Hugging Face近日公布了2025年4月第二周最受欢迎模型榜单,涵盖文本生成、图像生成到视频生成等多模态领域,凸显了AI技术的快速迭代与多元化应用。据AIbase了解,本次榜单中的模型不仅展示了开源社区的创新活力,还反映了从低精度训练到多模态生成的技术趋势。以下为榜单亮点解析,AIbase编辑团队为您带来专业解读。

1.jpg

文本生成模型:高效与专业化并重  

microsoft/bitnet-b1.58-2B-4T:作为首款采用1-bit精度训练的文本生成模型,BitNet以极低的计算成本实现高效推理,适合边缘设备部署。其创新的量化技术在保持性能的同时大幅降低能耗,受到社区广泛关注。  

agentica-org/DeepCoder-14B-Preview:专为代码生成优化的文本生成模型,特别在前端开发任务中表现出色。其微调设计提升了代码逻辑的准确性,为开发者提供了强大工具。  

THUDM/GLM-4-32B-0414& GLM-Z1-32B-0414:智谱AI的GLM系列再度上榜,GLM-4-32B以15T高质量数据预训练,支持对话、代码生成与指令跟随;GLM-Z1-32B则强化推理能力,性能媲美GPT-4o与DeepSeek-V3。AIbase期待本周社区发布的测试结果进一步验证其潜力。  

deepseek-ai/DeepSeek-V3-0324:DeepSeek-V3的“小更新”版本,以671B参数规模继续领跑文本生成领域。其在复杂推理与多语言任务中的卓越表现,已成为开源社区的标杆模型。  

microsoft/MAI-DS-R1:微软基于DeepSeek的后训练模型,优化了特定任务的指令跟随能力,尽管社区对其性能褒贬不一,仍因高效微调受到关注。

图像与多模态模型:视觉生成迈向新高度  

HiDream-ai/HiDream-I1-Full:这一文本到图像模型以高生成质量脱颖而出,细节表现与风格多样性令人印象深刻。AIbase认为,其在艺术创作与商业设计中的应用潜力巨大。  

Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro-2.0:基于FLUX.1-dev的改进版本,专注于人物生成,结合ControlNet技术提升了图像一致性与控制精度,适合高精度视觉任务。  

moonshotai/Kimi-VL-A3B-Thinking:Kimi的多模态模型,支持图像-文本到文本生成,凭借强大的视觉理解与推理能力,适用于复杂问答与内容分析场景。AIbase此前已报道其在多模态领域的创新突破。

视频生成模型:动态内容创作提速  

Wan-AI/Wan2.1-FLF2V-14B-720P:阿里巴巴开源的首尾帧视频生成模型,支持5秒720p高清视频生成。通过CLIP语义特征与DiT架构,该模型在画面稳定性与过渡流畅性上表现优异,广泛应用于短视频创作与影视后期。  

AIbase分析,Hugging Face榜单反映了AI发展的两大趋势:一是多模态模型的崛起,如Kimi-VL与Wan2.1-FLF2V展示了从图像到视频的生成能力;二是高效推理的突破,如BitNet的1-bit训练为低资源环境开辟了新可能。未来,随着模型规模扩大与计算优化,AI将在教育、医疗与创意产业中发挥更大作用。AIbase将持续跟踪榜单动态,为读者带来最新技术洞察。

相关资讯

微软、国科大开启1Bit时代:大模型转三进制,速度快4倍能耗降至1/41

革命性的提升来了。把大模型的权重统统改成三元表示,速度和效率的提升让人害怕。今天凌晨,由微软、国科大等机构提交的一篇论文在 AI 圈里被人们争相转阅。该研究提出了一种 1-bit 大模型,实现效果让人只想说两个字:震惊。如果该论文的方法可以广泛使用,这可能是生成式 AI 的新时代。对此,已经有人在畅想 1-bit 大模型的适用场景,看起来很适合物联网,这在以前是不可想象的。人们还发现,这个提升速度不是线性的 —— 而是,模型越大,这么做带来的提升就越大。还有这种好事?看起来英伟达要掂量掂量了。近年来,大语言模型(L
2/29/2024 3:18:00 PM
机器之心

微软开源 bitnet.cpp 1-bit LLM 推理框架:不靠 GPU 可本地运行千亿参数 AI 模型,能耗最多降低 82.2%

科技媒体 marktechpost 昨日(10 月 18 日)发布博文,报道称微软公司开源了 bitnet.cpp,这是一个能够直接在 CPU 上运行、超高效的 1-bit 大语言模型(LLM)推理框架。用户通过 bitnet.cpp 框架,不需要借助 GPU,也能在本地设备上运行具有 1000 亿参数的大语言模型,实现 6.17 倍的速度提升,且能耗可以降低 82.2%。传统大语言模型通常需要庞大的 GPU 基础设施和大量电力,导致部署和维护成本高昂,而小型企业和个人用户因缺乏先进硬件而难以接触这些技术,而 bitnet.cpp 框架通过降低硬件要求,吸引更多用户以更低的成本使用 AI 技术。
10/19/2024 3:08:57 PM
故渊

微软开源 1.58bit 推理框架:千亿参数模型量化后单 CPU 可跑,速度每秒 5-7 个 token

微软开源 1bit 大模型推理框架!现在 1000 亿参数大模型量化后单 CPU 可跑,速度可达每秒 5-7 个 token。比如在苹果 M2 新品上运行 BitNet b1.58 3B 模型,be like:就是今年爆火论文 The Era of 1-bit LLMs 的官方代码实现,开源不到一周 GitHub 已揽获 7.9k Star。
10/22/2024 6:54:45 PM
汪淼
  • 1