AI在线 AI在线

开源

刚刚,LMArena最新模型榜单出炉!DeepSeek-R1网页编程能力赶超了Claude Opus 4

刚刚,LMArena最新模型榜单出炉!DeepSeek-R1网页编程能力赶超了Claude Opus 4

在开源模型领域,DeepSeek 又带来了惊喜。 上个月 28 号,DeepSeek 来了波小更新,其 R1 推理模型升级到了最新版本(0528),并公开了模型及权重。 这一次,R1-0528 进一步改进了基准测试性能,提升了前端功能,减少了幻觉,支持 JSON 输出和函数调用。
6/17/2025 9:09:00 AM
Kimi新模型拿下代码开源SOTA,仅仅72B,发布即开源

Kimi新模型拿下代码开源SOTA,仅仅72B,发布即开源

深夜,沉寂已久的Kimi突然发布了新模型——开源代码模型Kimi-Dev,在SWE-bench Verified上以60.4%的成绩取得开源SOTA。 参数量只有72B,但编程水平比最新的DeepSeek-R1还强,和闭源模型比较也表现优异。 有网友看到后表示,感觉月之暗面的实力被低估了,其水平应该比xAI强。
6/17/2025 9:07:24 AM
10% KV Cache实现无损数学推理!这个开源方法解决推理大模型「记忆过载」难题

10% KV Cache实现无损数学推理!这个开源方法解决推理大模型「记忆过载」难题

推理大模型虽好,但一个简单的算数问题能推理整整三页,还都是重复的“废话”,找不到重点……一种可以把大模型的“碎碎念”转化为可控记忆条目的高效压缩方法,出现了! R-KV开源登场:显存↓90%、吞吐×6.6、准确率=100%。 它可以通过实时对token进行排序,兼顾重要性和非冗余性,仅保留信息丰富且多样化的token,从而解决大模型推理时的冗余问题。
6/16/2025 2:41:07 PM
如何选择最佳多模态大模型压缩方案?哈工大、度小满开源EFFIVLM-BENCH基准测试框架

如何选择最佳多模态大模型压缩方案?哈工大、度小满开源EFFIVLM-BENCH基准测试框架

在金融科技智能化转型进程中,大语言模型以及多模态大模型(LVLM)正成为核心技术驱动力。 尽管 LVLM 展现出卓越的跨模态认知能力,其部署却长期受限于显著的算力瓶颈 —— 大小中等的模型一次多图推理可能需要 100 G 的显存空间,严重制约产业落地。 针对这一技术痛点,哈工大团队联合度小满金融科技正式发布 EFFIVLM-BENCH,业界首个支持跨场景统一评估的多模态大模型高效化基准框架,为学术界提供可复现的压缩方案对比基准,同时赋能工业界实现最优部署策略遴选。
6/16/2025 2:39:56 PM
1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

开源社区的人应该对 vLLM 不陌生,它是一个由加州大学伯克利分校团队开发的高性能、开源 LLM 推理和服务引擎,核心目标是提升 LLM 的推理速度(吞吐量)和资源利用率(尤其是内存),同时兼容 Hugging Face 等流行模型库。 简单来说,vLLM 能让 GPT、Mistral、LLaMA 等主流模型系列跑得更快、消耗更少资源,取得这些效果的关键是其创新的注意力机制实现方案 ——PagedAttention。 近日,DeepSeek AI 研究者、深度学习系统工程师俞星凯从零开始构建了一个轻量级 vLLM 实现 ——Nano-vLLM,将代码简化到了 1200 行。
6/13/2025 2:16:37 PM
最大的开源GraphRag:知识图谱完全自主构建|港科大&华为

最大的开源GraphRag:知识图谱完全自主构建|港科大&华为

知识图谱(KGs)已经可以很好地将海量的复杂信息整理成结构化的、机器可读的知识,但目前的构建方法仍需要由领域专家预先创建模式,这限制了KGs的可扩展性、适应性和领域覆盖范围。 为此,香港科技大学KnowComp实验室联合香港华为理论部提出了AutoSchemaKG:一个无需预定义模式、用于完全自主知识图谱构建的框架。 该系统利用大型语言模型,可以直接从文本中同时提取知识三元组并归纳出全面的模式,对实体和事件进行建模,同时采用概念化方法将实例组织成语义类别。
6/12/2025 11:56:30 AM
o3绞尽脑汁仅答对40%的题目,开源模型基本乱猜?MMSI-Bench:多图空间智能试金石

o3绞尽脑汁仅答对40%的题目,开源模型基本乱猜?MMSI-Bench:多图空间智能试金石

AI能看图,也能讲故事,但能理解“物体在哪”“怎么动”吗? 空间智能,正是大模型走向具身智能的关键拼图。 面对1000道多图推理题,开源大模型集体失守——准确率不到30%,甚至不如瞎猜!
6/12/2025 9:05:00 AM
Mistral的首个强推理模型:拥抱开源,推理速度快10倍

Mistral的首个强推理模型:拥抱开源,推理速度快10倍

大模型强推理赛道,又迎来一位重量级玩家。 本周二,欧洲人工智能公司 Mistral AI 发布了 Magistral,这是一个全新的大语言模型(LLM)系列,展现了强大的推理能力。 它能够进行不断反思,并解决更复杂的任务。
6/11/2025 2:39:50 PM
法国 AI 实验室 Mistral 推出推理模型 Magistral 系列,Small 版已开源

法国 AI 实验室 Mistral 推出推理模型 Magistral 系列,Small 版已开源

6 月 11 日消息,法国人工智能实验室 Mistral 周二宣布进军推理人工智能模型领域。 6 月 . 10 日,Mistral 正式推出其首个推理模型系列 .
6/11/2025 9:19:46 AM 远洋
0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源

0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源

端侧性价比之王,清华大学和面壁智能团队开源新模型——MiniCPM 4,提供8B、0.5B两种参数规模,仅使用同级别开源模型22%的训练开销,就达到了同级别最优性能。 MiniCPM4-8B是开源首个开源的原生稀疏模型,5%的极高稀疏度加持,让长文本、深思考在端侧真正跑起来。 在MMLU、CEval、MATH500、HumanEval等基准测试中,以仅22%的训练开销,性能比肩 Qwen-3-8B,超越Gemma-3-12B。
6/11/2025 9:03:29 AM
小红书hi lab首次开源文本大模型,14个checkpoint覆盖Pretrain与Instruct阶段

小红书hi lab首次开源文本大模型,14个checkpoint覆盖Pretrain与Instruct阶段

01、简介小红书hi lab(Humane Intelligence Lab,人文智能实验室)团队首次开源文本大模型 dots.llm1。 dots.llm1是一个中等规模的Mixture of Experts (MoE)文本大模型,在较小激活量下取得了不错的效果。 该模型充分融合了团队在数据处理和模型训练效率方面的技术积累,并借鉴了社区关于 MoE 的最新开源成果。
6/10/2025 3:30:00 AM
小红书开源首个大模型,11万亿非合成训练数据

小红书开源首个大模型,11万亿非合成训练数据

国内著名社交平台小红书,开源了首个大模型——dots.llm1。 dots.llm1是一个1420亿参数的专家混合模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。 dots.llm1最大特色是使用了11.2万亿token的非合成高质量训练数据,这在现阶段的开源大模型中非常罕见,看来小红书也得益于自己庞大的语料库出手就是阔啊。
6/9/2025 9:41:25 AM
告别「失忆」AI!首个大模型记忆操作系统开源框架来了!

告别「失忆」AI!首个大模型记忆操作系统开源框架来了!

该项目来自百家 AI,是北京邮电大学白婷副教授所指导的研究小组, 团队致力于为硅基人类倾力打造情感饱满、记忆超凡的智慧大脑。 大语言模型受限于固定上下文窗口,长期对话中「失忆」、记忆断裂等问题频发,北邮百家 AI 团队重磅推出首个大模型记忆操作系统开源框架 MemoryOS。 巧妙融合计算机操作系统原理与人脑分层记忆机制,构建段页式三级存储架构及四大核心模块(存储、更新、检索、生成),提供全链路用户记忆管理方案,让 AI 智能体拥有持久「记性」与深度「个性」。
6/9/2025 8:56:00 AM
性能大涨!阿里开源新版Qwen3模型,霸榜文本表征

性能大涨!阿里开源新版Qwen3模型,霸榜文本表征

今天凌晨,阿里巴巴开源了两款Qwen3系列新模型,Qwen3-Embedding和Qwen3-Reranker。 这两个模型是专为文本表征、检索与排序任务设计,基于 Qwen3基础模型训练,充分继承了Qwen 3在多语言文本理解方面的优势,支持119种语言。 根据测试数据显示,在多语言文本表征基准测试中,Qwen3 Embedding的性能非常出色。
6/6/2025 9:12:53 AM
让GPU不再摸鱼!清华蚂蚁联合开源首个全异步RL,一夜击穿14B SOTA

让GPU不再摸鱼!清华蚂蚁联合开源首个全异步RL,一夜击穿14B SOTA

还记得今年初DeepSeek‑R1系列把纯强化学习(RL)训练开源,点燃社区对于RL的热情吗? 不久后,来自清华蚂蚁联合开源项目AReaL(v0.1)也通过在DeepSeek-R1-Distill-Qwen-1.5B上进行RL训练,观察到模型性能的持续提升。 AReaL(v0.1)在40小时内,使用RL训练的一个1.5B参数模型,在数学推理方面就超越了o1-Preview版本。
6/6/2025 9:10:00 AM
Jaaz开源AI设计Agent横空出世!一键批量生成图像,创意生产从此起飞!

Jaaz开源AI设计Agent横空出世!一键批量生成图像,创意生产从此起飞!

人工智能正在重塑创意设计领域,一款全新的开源工具Jaaz引发了广泛关注。 AIbase从社交媒体平台获取最新信息,了解到Jaaz是一款开源AI设计Agent,支持通过简单的API配置实现自动化批量图像生成,为专业创作者和团队提供了高效的解决方案。 本文将详细解析Jaaz的功能亮点、当前局限性以及其对AI创意产业的潜在影响。
6/5/2025 3:00:55 PM AI在线
人工智能和知识图谱五:著名的开源和商业知识图谱工具

人工智能和知识图谱五:著名的开源和商业知识图谱工具

一、开源工具RDFLib:RDFLib是一个用于处理RDF的纯Python库。 它被开发人员广泛用于中小型项目或数据科学领域。 RDFLib允许您创建图表、解析RDF文件(Turtle、XML等)以及执行SPARQL查询(它有一个基于Python的SPARQL1.1引擎)。
6/5/2025 9:09:50 AM 晓晓
深度研究白菜化?谷歌将Gemini级AI研究能力开源

深度研究白菜化?谷歌将Gemini级AI研究能力开源

谷歌太良心了,推出"gemini-fullstack-langgraph-quickstart"的开源项目,这个项目用Gemini 2.5模型与LangGraph框架的结合,主打快速构建一个能够本地运行的自主进行深度研究的智能代理系统目前github已经飙升到3.5k星了,地址:"研究型AI代理",能够像人类研究员一样工作:它会根据用户的问题动态生成搜索关键词,通过Google搜索获取信息,分析结果中的知识空白,然后迭代地优化搜索策略,最终提供有充分引用支持的答案技术架构:前后端分离的现代设计前端:React与现代开发体验项目采用了React配合Vite构建工具的前端架构。 Vite的选择体现了对开发效率的重视——它提供了极快的热重载功能,让开发者能够实时看到代码改动的效果。 这种即时反馈对于调试复杂的AI交互界面特别重要,因为你需要频繁测试不同的用户输入场景后端:LangGraph的强大编排能力后端使用了LangGraph框架,这是一个专门为构建复杂AI工作流而设计的工具。
6/5/2025 9:05:36 AM