AI在线 AI在线

开源

内部爆料:Alexandr Wang上任第一把火,Meta大模型闭源

曾经被称为「开源之光」的 Meta,之后可能也要走闭源路线了。 据知情人士透露,Meta 新成立的超级智能实验室近期正在讨论一项可能改变其人工智能发展方向的重大决策。 在 Meta 内部,关于 AI 发展路径出现了不同声音。
7/15/2025 11:47:00 AM
机器之心

谷歌T5Gemma重燃架构之战!「套壳」反杀Gemma本尊,9B推理快得离谱

2023年以来,大模型的战场由decoder-only架构一统江湖。 从GPT家族到LLaMA、Gemma、Mistral,再到Claude、Command-R、Yi系列,能叫得出名字的主流LLM,几乎都是清一色的「纯解码器」(decoder-only)。 但今天,Google带着T5Gemma杀回来了——不仅重启了encoder-decoder的技术路线,还略施小技就让它原地起飞,暴打原版Gemma 2。
7/15/2025 8:58:00 AM

用AI写代码效率反降19%!246项任务实测,16位资深程序员参与

用AI,有经验的开发者反倒被拖慢了? 在一项基于真实开源项目的实验中,研究者发现使用AI工具不仅没有提升开发效率,反而让任务时间增加19%。 这简直与人们预测的结果完全相反。
7/14/2025 8:35:00 AM

杨植麟被梁文锋叫醒了!Kimi新模型发布即开源,1T参数全线SOT

172天过去,Kimi在深夜低调给出了DeepSeek冲击波后的回应。 全新Kimi K2基础大模型,MoE架构,总参数1T,激活参数32B,能力领先性尤其展现在代码、Agent、数学推理任务上。 Kimi援引多个基准评测数据,创造了开源全新SOTA。
7/14/2025 8:30:00 AM

WebSailor 突破边界:助力开源智能体跨越复杂推理 “天花板”

大家好,我是肆〇柒,自从互联网时代开启以来,人类社会经历了多次信息技术变革,而互联网犹如一把双刃剑。 一方面,它以每两年数据量翻一番的惊人速度,为人类打开了通往海量知识的大门;另一方面,也向我们的认知能力发起了前所未有的挑战。 当我们面对无边无际的信息数据时,人类有限的记忆容量、脆弱的注意力稳定性,以及线性单一的探索路径,无疑成为了制约我们高效获取精准信息的瓶颈。
7/10/2025 10:21:19 AM
肆零柒

微软开源新版Phi-4:推理效率暴涨10倍,笔记本可运行

今天凌晨,微软在官网开源了Phi-4家族的最新版本Phi-4-mini-flash-reasoning。 mini-flash版延续了Phi-4家族参数小性能强的特点,是专门针对那些受算力、内存和延迟限制场景设计的,单个GPU可运行,适合笔记本、平板电脑等边缘设备。 与前一个版本相比,mini-flash使用了微软自研的创新架构SambaY,推理效率暴涨了10倍,延迟平均降低了2—3倍,整体推理性能实现了大幅度提升。
7/10/2025 9:14:37 AM

AI版三个臭皮匠!ChatGPT/Gemini/DeepSeek合体拿下AGI测试最高分

不圆 发自 凹非寺. 量子位 | 公众号 QbitAIChatGPT的对话流畅性、Gemini的多模态能力、DeepSeek的长上下文分析……. 能不能让它们强强联合,共同解决问题呢?
7/8/2025 4:58:18 PM
不圆

DeepSeek推理最高提速6倍!开源研究:加装「思维进度条」,计算量减少30%

DeepSeek推理要详细还是要迅速,现在可以自己选了? 来自特拉维夫大学的研究团队开发出了一种新方法,可以监控和控制LLM中的思考路径长度。 给LLM的推理任务装上进度条,还能控制推理的深度、调整推理速度。
7/8/2025 2:23:43 PM
不圆

开源革命!Kyutai TTS发布:超低延迟语音合成,AI语音新纪元来袭!

近日,法国AI实验室Kyutai宣布,其全新文本转语音模型 Kyutai TTS 正式开源,为全球开发者与研究者带来了一款高性能、低延迟的语音合成解决方案。 这一突破性发布不仅推动了开源AI技术的发展,也为多语言语音交互应用开辟了新的可能性。 AIbase为您独家解析这一技术亮点及其潜在影响。
7/5/2025 7:46:46 AM
AI在线

从封闭到放开:百度开源文心 4.5 全家桶,多项基准上领先 Deepseek,行业天花板再抬高

百度突然宣布,将旗下最新的大语言模型文心大模型4.5(ERNIE 4.5)全系列开源,震动整个AI行业。 此次开源采用Apache 2.0许可协议,意味着全球开发者不仅可以免费下载和使用,也可以自由修改与商用。 图片这标志着百度战略方向的重大转变。
7/3/2025 4:27:26 PM

RL缩放王炸!DeepSWE开源AI Agent登顶榜首,训练方法、权重大公开

今天凌晨,著名大模型训练平台Together.ai联合Agentica开源了创新AI Agent框架DeepSWE。 DeepSWE是基于阿里最新开源的Qwen3-32B模型之上,完全使用强化学习训练而成。 除了权重之外,训练方法、日志、数据集等所有内容也全部开源,以帮助开发人员深度学习和改进Agent。
7/3/2025 2:58:16 PM

ElementPlusX + RuoyiAI:Vue3 首个 AI 开发模板开源了!

在 AI 技术飞速发展的今天,开发一款自己的 AI 应用成为了许多开发者的追求。 然而,从零开始搭建一个完整的 AI 开发环境,往往需要耗费大量的时间和精力。 为了帮助开发者快速进入 AI 开发领域,一个基于 Vue3.5 的全新 AI 开发模板——ruoyi-element-ai 正式开源了!
7/3/2025 9:36:35 AM
小4子

MoE那么大,几段代码就能稳稳推理 | 开源

混合专家网络模型架构(MoE)已经成为当前大模型的一个主流架构选择,以最近开源的盘古Pro MoE为例,其基于MoGE架构构建的混合专家架构,总参数量达720亿,激活参数量为160亿,专门针对昇腾硬件优化,在性能与效率上表现突出。 盘古还实现了在推理时做到又快又稳。 在技术特性上,盘古模型引入 “快思考” 和 “慢思考” 双系统,可根据问题复杂度自动切换响应模式,并在推理性能上实现突破——在昇腾800I A2上单卡推理吞吐性能达1148 tokens/s,经投机加速技术可提升至1528 tokens/s,显著优于同等规模稠密模型。
7/3/2025 9:05:40 AM

9B“小”模型干了票“大”的:性能超8倍参数模型,拿下23项SOTA | 智谱开源

如果一个视觉语言模型(VLM)只会“看”,那真的是已经不够看的了。 因为现在真实世界的任务简直不要太复杂,要想让AI干点实事儿,光有多模态还不够,必须还得有深度思考的强推理能力。 而就在刚刚,智谱发布并开源了一个仅9B大小的模型——GLM-4.1V-9B-Thinking,在28项评测中一举拿下23个SOTA!
7/2/2025 2:39:29 PM

微软开源适用于 VS Code 的 GitHub Copilot Chat 扩展,助推 AI 编程自动化

这意味着开发社区可以深入了解和洞察聊天式编码助手的完整实现,包括“智能体模式”的实现细节、发送给大型语言模型(LLM)的上下文数据以及系统提示的设计。
7/2/2025 1:37:36 PM
故渊

9B“小”模型干了票“大”的:性能超8倍参数模型,拿下23项SOTA | 智谱开源

如果一个视觉语言模型(VLM)只会“看”,那真的是已经不够看的了。 因为现在真实世界的任务简直不要太复杂,要想让AI干点实事儿,光有多模态还不够,必须还得有深度思考的强推理能力。 而就在刚刚,智谱发布并开源了一个仅9B大小的模型——GLM-4.1V-9B-Thinking,在28项评测中一举拿下23个SOTA!
7/2/2025 1:04:17 PM
十三

开源端到端语音大模型:直接从原始音频输入,生成语音输出

目前,大模型LLMs能胜任知识问答、代码辅助等多种任务,但传统模型大多只能输出文本,无法直接生成自然语音,这让人机音频交互不够顺畅。 要知道,人类交流和感知环境可不只是靠文字,语音里藏着音色、情感、语调等丰富信息,其他音频也包含着现实场景的关键信息。 所以,能根据语音或音频输入直接回应的音频语言模型就很重要,也是迈向AGI的关键一步。
7/2/2025 9:46:30 AM

华为又开源了个大的:超大规模MoE推理秘籍

超大规模MoE模型(如DeepSeek),到底该怎么推理才能做到又快又稳。 现在,这个问题似乎已经有了标准答案——华为一个新项目,直接把推理超大规模MoE背后的架构、技术和代码,统统给开源了! 这个新开源项目名叫Omni-Infer,整体来看,它对于企业用户来说是非常利好的。
7/2/2025 8:55:00 AM