AI在线 AI在线

开源

基于闪电注意力机制,创新高效开源大模型

从数学竞赛、编程到自然语言处理,通过大规模的强化学习的模型正不断提升其推理能力。 但传统的Transformer架构由于其注意力机制的二次计算复杂度,在处理长文本和复杂推理任务时面临着效率瓶颈。 尽管有研究提出了多种改进方法,如稀疏注意力、线性注意力等,但这些方法在大规模推理模型中的应用效果尚未得到充分验证,大多数领先的模型仍然依赖于传统的注意力设计。
7/16/2025 10:15:51 AM

完全透明开源的共情语音大模型,三阶段训练,四大模块实现端到端对话

GPT-4o、Gemini这些顶级语音模型虽然展现了惊人的共情对话能力,但它们的技术体系完全闭源。 现在,紫东太初团队联合长城汽车AI Lab直接把整个技术栈都开源了,推出完全透明开源的端到端共情语音语言大模型OpenS2S。 OpenS2S的核心在于提供一个高效、低成本构建共情语音系统的新范式。
7/16/2025 10:12:35 AM

五个月估值120亿!OpenAI前CTO自曝首个多模态AI,竟要免费开源

OpenAI前CTO初创,又拿到新融资了! 一早,Mira Murati官宣由a16z领投20亿美元融资,至此,Thinking Machines Lab估值120亿美元。 同时,英伟达、AMD、Accel、ServiceNow等多家明星风投也参与了本次融资。
7/16/2025 9:44:29 AM

RAG系列:MinerU、Docling还是Unstructured?用OmniDocBench评测开源文档解析工具

引言从写 RAG 开发入门这一系列文章开始,特别是文档解析这个环节,有很多读者询问某个文档解析工具的能力怎么样,和其它工具对比如何,这表明开源社区虽然涌现出了很多的文档解析工具,但是它们在实际场景的表现到底如何,这在很多人中是没有太明确答案的。 因而,面对众多工具的选择,我们期望能有一个统一的基准来评估其实际效果,而且对于大部分人来说是需要开箱即用的。 本文我将介绍一款由上海人工智能实验室开源的多源文档解析评测框架  - OmniDocBench[1],凭借其多样性、全面性和高质量标注数据以及配套的评测代码,是一个不错的衡量文档解析工具性能的选择。
7/16/2025 1:00:00 AM

内部爆料:Alexandr Wang上任第一把火,Meta大模型闭源

曾经被称为「开源之光」的 Meta,之后可能也要走闭源路线了。 据知情人士透露,Meta 新成立的超级智能实验室近期正在讨论一项可能改变其人工智能发展方向的重大决策。 在 Meta 内部,关于 AI 发展路径出现了不同声音。
7/15/2025 11:47:00 AM
机器之心

谷歌T5Gemma重燃架构之战!「套壳」反杀Gemma本尊,9B推理快得离谱

2023年以来,大模型的战场由decoder-only架构一统江湖。 从GPT家族到LLaMA、Gemma、Mistral,再到Claude、Command-R、Yi系列,能叫得出名字的主流LLM,几乎都是清一色的「纯解码器」(decoder-only)。 但今天,Google带着T5Gemma杀回来了——不仅重启了encoder-decoder的技术路线,还略施小技就让它原地起飞,暴打原版Gemma 2。
7/15/2025 8:58:00 AM

用AI写代码效率反降19%!246项任务实测,16位资深程序员参与

用AI,有经验的开发者反倒被拖慢了? 在一项基于真实开源项目的实验中,研究者发现使用AI工具不仅没有提升开发效率,反而让任务时间增加19%。 这简直与人们预测的结果完全相反。
7/14/2025 8:35:00 AM

杨植麟被梁文锋叫醒了!Kimi新模型发布即开源,1T参数全线SOT

172天过去,Kimi在深夜低调给出了DeepSeek冲击波后的回应。 全新Kimi K2基础大模型,MoE架构,总参数1T,激活参数32B,能力领先性尤其展现在代码、Agent、数学推理任务上。 Kimi援引多个基准评测数据,创造了开源全新SOTA。
7/14/2025 8:30:00 AM

WebSailor 突破边界:助力开源智能体跨越复杂推理 “天花板”

大家好,我是肆〇柒,自从互联网时代开启以来,人类社会经历了多次信息技术变革,而互联网犹如一把双刃剑。 一方面,它以每两年数据量翻一番的惊人速度,为人类打开了通往海量知识的大门;另一方面,也向我们的认知能力发起了前所未有的挑战。 当我们面对无边无际的信息数据时,人类有限的记忆容量、脆弱的注意力稳定性,以及线性单一的探索路径,无疑成为了制约我们高效获取精准信息的瓶颈。
7/10/2025 10:21:19 AM
肆零柒

微软开源新版Phi-4:推理效率暴涨10倍,笔记本可运行

今天凌晨,微软在官网开源了Phi-4家族的最新版本Phi-4-mini-flash-reasoning。 mini-flash版延续了Phi-4家族参数小性能强的特点,是专门针对那些受算力、内存和延迟限制场景设计的,单个GPU可运行,适合笔记本、平板电脑等边缘设备。 与前一个版本相比,mini-flash使用了微软自研的创新架构SambaY,推理效率暴涨了10倍,延迟平均降低了2—3倍,整体推理性能实现了大幅度提升。
7/10/2025 9:14:37 AM

AI版三个臭皮匠!ChatGPT/Gemini/DeepSeek合体拿下AGI测试最高分

不圆 发自 凹非寺. 量子位 | 公众号 QbitAIChatGPT的对话流畅性、Gemini的多模态能力、DeepSeek的长上下文分析……. 能不能让它们强强联合,共同解决问题呢?
7/8/2025 4:58:18 PM
不圆

DeepSeek推理最高提速6倍!开源研究:加装「思维进度条」,计算量减少30%

DeepSeek推理要详细还是要迅速,现在可以自己选了? 来自特拉维夫大学的研究团队开发出了一种新方法,可以监控和控制LLM中的思考路径长度。 给LLM的推理任务装上进度条,还能控制推理的深度、调整推理速度。
7/8/2025 2:23:43 PM
不圆

开源革命!Kyutai TTS发布:超低延迟语音合成,AI语音新纪元来袭!

近日,法国AI实验室Kyutai宣布,其全新文本转语音模型 Kyutai TTS 正式开源,为全球开发者与研究者带来了一款高性能、低延迟的语音合成解决方案。 这一突破性发布不仅推动了开源AI技术的发展,也为多语言语音交互应用开辟了新的可能性。 AIbase为您独家解析这一技术亮点及其潜在影响。
7/5/2025 7:46:46 AM
AI在线

从封闭到放开:百度开源文心 4.5 全家桶,多项基准上领先 Deepseek,行业天花板再抬高

百度突然宣布,将旗下最新的大语言模型文心大模型4.5(ERNIE 4.5)全系列开源,震动整个AI行业。 此次开源采用Apache 2.0许可协议,意味着全球开发者不仅可以免费下载和使用,也可以自由修改与商用。 图片这标志着百度战略方向的重大转变。
7/3/2025 4:27:26 PM

RL缩放王炸!DeepSWE开源AI Agent登顶榜首,训练方法、权重大公开

今天凌晨,著名大模型训练平台Together.ai联合Agentica开源了创新AI Agent框架DeepSWE。 DeepSWE是基于阿里最新开源的Qwen3-32B模型之上,完全使用强化学习训练而成。 除了权重之外,训练方法、日志、数据集等所有内容也全部开源,以帮助开发人员深度学习和改进Agent。
7/3/2025 2:58:16 PM

ElementPlusX + RuoyiAI:Vue3 首个 AI 开发模板开源了!

在 AI 技术飞速发展的今天,开发一款自己的 AI 应用成为了许多开发者的追求。 然而,从零开始搭建一个完整的 AI 开发环境,往往需要耗费大量的时间和精力。 为了帮助开发者快速进入 AI 开发领域,一个基于 Vue3.5 的全新 AI 开发模板——ruoyi-element-ai 正式开源了!
7/3/2025 9:36:35 AM
小4子

MoE那么大,几段代码就能稳稳推理 | 开源

混合专家网络模型架构(MoE)已经成为当前大模型的一个主流架构选择,以最近开源的盘古Pro MoE为例,其基于MoGE架构构建的混合专家架构,总参数量达720亿,激活参数量为160亿,专门针对昇腾硬件优化,在性能与效率上表现突出。 盘古还实现了在推理时做到又快又稳。 在技术特性上,盘古模型引入 “快思考” 和 “慢思考” 双系统,可根据问题复杂度自动切换响应模式,并在推理性能上实现突破——在昇腾800I A2上单卡推理吞吐性能达1148 tokens/s,经投机加速技术可提升至1528 tokens/s,显著优于同等规模稠密模型。
7/3/2025 9:05:40 AM

9B“小”模型干了票“大”的:性能超8倍参数模型,拿下23项SOTA | 智谱开源

如果一个视觉语言模型(VLM)只会“看”,那真的是已经不够看的了。 因为现在真实世界的任务简直不要太复杂,要想让AI干点实事儿,光有多模态还不够,必须还得有深度思考的强推理能力。 而就在刚刚,智谱发布并开源了一个仅9B大小的模型——GLM-4.1V-9B-Thinking,在28项评测中一举拿下23个SOTA!
7/2/2025 2:39:29 PM