AI在线 AI在线

模型

微软1bit LLM新研究:原生4bit激活值量化,可充分利用新一代GPU对4bit计算的原生支持

微软又有“1 bit LLM”新成果了——发布BitNet v2框架,为1 bit LLM实现了原生4 bit激活值量化,由此可充分利用新一代GPU(如GB200)对4 bit计算的原生支持能力。 同时减少内存带宽&提升计算效率。 之前,微软持续研究BitNet b1.58,把LLM的权重量化到1.58-bit,显著降低延迟、内存占用等推理成本。
4/30/2025 9:16:00 AM
量子位

不要思考过程,推理模型能力能够更强丨UC伯克利等最新研究

其实……不用大段大段思考,推理模型也能有效推理! 是不是有点反常识? 因为大家的一贯印象里,推理模型之所以能力强大、能给出准确的有效答案,靠的就是长篇累牍的推理过程。
4/30/2025 9:09:00 AM
量子位

RWKV7-G1 1.5B全球语言推理模型发布 支持100多种自然语言

4月29日,RWKV基金会宣布开源发布了RWKV7-G11.5B推理模型,这是一款具备强大推理能力和多语言支持的模型,特别适合在端侧设备(如手机)上运行。 该模型基于World v3.5数据集训练,包含小说、网页、数学、代码和推理数据,总数据量达到5.16T tokens。 RWKV7-G11.5B模型在推理逻辑性方面表现出色,能够完成多语言、数学和代码任务。
4/30/2025 9:01:00 AM
AI在线

ICLR 2025|首个动态视觉-文本稀疏化框架来了,计算开销直降50%-75%

本文由华东师范大学和小红书联合完成,共同第一作者是华东师范大学在读硕士、小红书 NLP 团队实习生黄文轩和翟子杰,通讯作者是小红书 NLP 团队负责人曹绍升,以及华东师范大学林绍辉研究员。 多模态大模型(MLLMs)在视觉理解与推理等领域取得了显著成就。 然而,随着解码(decoding)阶段不断生成新的 token,推理过程的计算复杂度和 GPU 显存占用逐渐增加,这导致了多模态大模型推理效率的降低。
4/30/2025 9:00:00 AM
机器之心

OpenAI玩崩了!GPT-4o更新后变马屁精差评如潮,奥特曼:一周才能完全修复

GPT-4o更新后,有点失控了。 现在简简单单地问一句“天为什么是蓝的? ”,得到的都不是答案,而是先来一句花式夸夸:你这问题真是太有见地了——你有个美丽的心灵,我爱你。
4/30/2025 8:42:00 AM
量子位

开源的轻量化VLM-SmolVLM模型架构、数据策略及其衍生物PDF解析模型SmolDocling

缩小视觉编码器的尺寸,能够有效的降低多模态大模型的参数量。 再来看一个整体的工作,从视觉侧和语言模型侧综合考量模型参数量的平衡模式,进一步降低参数量,甚至最小达256M参数量,推理时显存占用1GB。 下面来看看,仅供参考。
4/30/2025 3:20:00 AM
于俊晖

赶在Deepseek-r2之前,阿里发布全球最强开源模型Qwen3,4张H20即可部署满血版

最近几天,开源大模型是异常活跃。 从前几天有爆料deepseek-r2即将发布的消息:图片到昨天Qwen3短暂发布又撤回:图片再到今天Qwen3正式发布。 感觉就像一场军备竞赛,阿里这次终于抢在了deepseek-r2发布之前发布了Qwen3!
4/30/2025 1:10:00 AM
DD

纳米AI为4亿打工人定制「AI牛马」!可0代码手搓超级智能体

AI的未来是什么? 是能听懂你一句指令,就帮你写报告、做PPT、发爆款内容的「超级助手」。 4月23日,纳米AI重磅官宣:全面支持MCP协议,上线MCP万能工具箱。
4/29/2025 4:12:28 PM
新智元

GPT-4o一夜变身「赛博舔狗」,百万网友泪目!奥特曼紧急修复,网友:求别修

最近,全网都被GPT-4o的「赛博舔狗」行为震惊了。 这些天的GPT-4o,突变成了这个画风。 用户:「你愿意打一只马那么大的鸭子,还是打一百只鸭子那么大的小马?
4/29/2025 4:07:53 PM
新智元

Mac也能跑Qwen3,一文看懂本地部署qwen 3配置要求

本地部署 Qwen3模型:借助 Ollama 在 Mac 上畅享大模型力量随着大型语言模型技术的飞速发展,越来越多的用户希望能在本地环境中运行这些强大的模型,以获得更好的数据隐私、更快的响应速度以及更灵活的定制性。 好消息是,知名的模型运行平台 Ollama 已经全面支持 Qwen3系列模型,这使得在个人设备上本地部署 Qwen3成为可能。 本文将重点介绍如何利用 Ollama 在 Mac 设备上进行 Qwen3模型的本地部署与配置,并结合最新的模型规格信息,为您提供详细的参考。
4/29/2025 4:00:41 PM
AI在线

性能与效率的双赢:Qwen3横空出世,MoE架构大幅降低部署成本

阿里云旗下通义千问(Qwen)团队正式发布Qwen3系列模型,共推出8款不同规格的模型,覆盖从移动设备到大型服务器的全部应用场景。 这是国内首个全面超越DeepSeek R1的开源模型,也是首个配备混合思维模式的国产模型。 模型阵容丰富,满足各类部署需求Qwen3系列包含6款Dense模型和2款MoE模型:Dense模型:0.6B、1.7B、4B、8B、14B、32BMoE模型:Qwen3-235B-A22B (总参数235B,激活参数22B)Qwen3-30B-A3B (总参数30B,激活参数3B)所有模型均支持128K上下文窗口,并配备了可手动控制的"thinking"开关,实现混合思维模式。
4/29/2025 4:00:41 PM
AI在线

阿里Qwen3深度解析:新一代开源大语言模型的革新与突破

Qwen3是什么?阿里Qwen3是通义千问系列的最新一代开源大语言模型(LLM),于2025年4月29日正式发布。 作为全球首个支持“混合推理”的模型,Qwen3包含8款不同规模的模型,涵盖稠密模型(如0.6B、4B、32B)和混合专家模型(MoE,如30B-A3B、235B-A22B),采用Apache2.0协议开源,支持免费商用。 其核心目标是提供高性能、低成本的AI解决方案,同时覆盖从边缘设备到企业级服务器的全场景需求。
4/29/2025 4:00:40 PM
AI在线

暗月之面发布开源模型 Kimi-VL, 28 亿个参数即可处理文本、图像和视频

中国初创公司 Moonshot AI 最近推出了一款名为 Kimi-VL 的开源模型。 该模型在处理图像、文本和视频方面表现出色,以其高效的性能引起了广泛关注。 Kimi-VL 最大的亮点在于其处理长文档、复杂推理和用户界面的能力。
4/29/2025 12:01:01 PM
AI在线

通义App全面上线千问3 第一时间体验全球最强开源模型

4月29日,通义App与通义网页版(tongyi.com)全面上线阿里新一代通义千问开源模型Qwen3(简称千问3)。 用户可以第一时间在通义App和网页版中的专属智能体“千问大模型”,以及主对话页面,体验到全球最强开源模型的顶级智能能力。 据了解,千问3一经发布便登顶全球最强开源模型。
4/29/2025 12:01:00 PM
AI在线

Ollama 支持全线的 Qwen 3 模型

Ollama官方宣布已全面支持阿里巴巴通义千问最新一代大语言模型系列——Qwen3。 这一重要更新进一步丰富了Ollama的开源模型生态,为开发者、企业及AI爱好者提供了更强大的本地化部署选择,显著提升了在多种场景下的AI应用灵活性与效率。   Qwen3模型:性能与规模并重Qwen3是阿里巴巴通义千问团队推出的最新一代大语言模型,涵盖从0.6亿到2350亿参数的广泛模型规模,包括高效的混合专家(MoE)模型。
4/29/2025 12:01:00 PM
AI在线

北京大学推出新基准评测PHYBench,挑战AI物理推理能力!

最近,北京大学物理学院联合多个院系,推出了一项名为 “PHYBench” 的全新评测基准,旨在检验大模型在物理推理上的真实能力。 该项目由朱华星老师和曹庆宏副院长主导,汇聚了来自物理学院和其他学科的200多名学生,其中不少人曾在全国中学生物理竞赛中获金牌。 PHYBench 设计了500道精心制作的高质量物理题,这些题目涵盖高中物理、大学物理及物理奥林匹克竞赛的各个层面。
4/29/2025 11:00:51 AM
AI在线

通义灵码上线Qwen3:编程智能体即将上线 集成魔搭MCP广场

通义灵码团队宣布正式上线Qwen3,并开源了8款「混合推理模型」,这标志着编程智能体的进一步发展。 此次开源包括两款MoE模型:Qwen3-235B-A22B(2350多亿总参数、220多亿激活参数),以及Qwen3-30B-A3B(300亿总参数、30亿激活参数);还有六个Dense模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。 Qwen3的旗舰模型Qwen3-235B-A22B在代码、数学和通用能力等基准测试中表现出色,与DeepSeek-R1、o1、o3-mini、Grok-3和Gemini-2.5-Pro等顶级模型相比,展现了极具竞争力的结果。
4/29/2025 11:00:51 AM
AI在线

大幅提升 AI 推理速度:UCLA 与 Meta AI 联合推出 d1 框架

在人工智能领域,UCLA 和 Meta AI 的研究人员联合推出了一种名为 d1的新框架,该框架通过强化学习技术显著提升了扩散式大语言模型(dLLMs)的推理能力。 虽然传统的自回归模型如 GPT 受到了广泛关注,但 dLLMs 凭借其独特的优势,若能加强推理能力,将为企业带来新的效率和应用前景。 扩散式语言模型与自回归模型的生成方式截然不同。
4/29/2025 10:00:51 AM
AI在线