AI在线 AI在线

开源

开源AI设计工具Jaaz发布 Lovart AI的本地化免费替代品

一款名为Jaaz的开源AI设计工具在开发者社区引发热议,被誉为Lovart AI的本地化免费替代品。 Jaaz利用先进的AI模型与图像生成技术,支持通过聊天对话完成图像设计、编辑及生成,涵盖海报、故事板等多种创意场景。 其强大的功能和本地运行特性为设计师提供了高效、灵活的创作体验。
6/23/2025 3:00:38 PM
AI在线

​Firecrawl即将推出Fireplexity,打造开源Perplexity克隆版

在AI搜索引擎领域,Firecrawl正以迅猛之势掀起新波澜。 根据最新社交媒体动态,Firecrawl宣布将于下周正式推出Fireplexity,一款定位为开源的Perplexity克隆版,旨在为开发者提供强大的AI驱动问答引擎,挑战现有AI搜索工具的格局。 以下是AIbase整理的最新信息,带您深入了解这一备受期待的项目。
6/23/2025 11:00:48 AM
AI在线

PyTorch 从 0 到 1:超详细的安装与入门实战指南

PyTorch 是一个由 Meta (Facebook) AI 研究实验室主导开发的开源机器学习库。 它以其灵活性、易用性和强大的GPU加速功能而闻名,已成为学术界和工业界进行深度学习研究和应用开发的首选框架之一。 PyTorch 的两大核心特性:张量 (Tensor) 计算:类似于 NumPy 的多维数组,但提供了强大的 GPU 加速能力,使得大规模数值计算变得极其高效。
6/23/2025 10:20:00 AM
用户007

开源版MetaQuery来了!OpenUni用1.1B参数媲美BLIP3-o-8B,数据代码完全开源

随着 GPT-4o 展现出令人印象深刻的多模态能力,将视觉理解和图像生成统一到单一模型中已成为 AI 领域的研究趋势(如MetaQuery 和 BLIP3-o )。 南洋理工大学 S-Lab 和商汤科技的研究团队推出 OpenUni,一个开源版 MetaQuery,仅用 1.1B 参数达到 8B 模型性能,更将代码、权重、数据全部开源! 技术报告: OpenUni: A Simple Baseline for Unified Multimodal Understanding and Generation机构: 南洋理工大学 S-Lab、商汤科技新加坡研究院作者: Size Wu*,  Zhonghua Wu*, Zerui Gong* (* 同等贡献), Qingyi Tao, Sheng Jin, Qinyue Li, Wei Li, Chen Change Loy开源代码: : [email protected]架构图,OpenUni 架构:通过 256 个可学习查询和 6 层轻量连接器,桥接冻结的 InternVL(理解)与 SANA(生成)图 1:OpenUni 在生成任务上的性能表现,展示了其高效的参数利用三大核心优势🏗️ 架构极简仅 6 层连接器,相比 MetaQuery 的 24 层大幅精简⚡ 参数高效1.1B 参数达到 GenEval 0.84 分,与 BLIP3-o-8B 模型性能相当 📂 完全开源模型权重 训练代码 2300 万数据集全部公开架构设计与训练策略OpenUni 遵循 MetaQuery 的设计理念,包含四个核心组件:1.256 个可学习查询 - 从用户指令中提取条件信息2.
6/23/2025 9:01:00 AM

AI助燃数字创新 SUSE Summit 2025创新峰会隆重召开

2025年6月13日 全球开源解决方案领导者SUSE在北京隆重举办了SUSE Summit 2025创新峰会。 本次峰会以“AI开源智选 助燃数字创新”为主题,汇集了行业领袖、技术专家以及众多合作伙伴,深入探讨在生成式AI浪潮下,如何基于SUSE开源模式,利用各种新功能和新技术拨开重重迷雾,快速实现企业级AI创新。 SUSE大中华区总裁陈毅威在新质生产力不断涌现的时代背景下,SUSE中国战略稳步推进。
6/17/2025 5:41:47 PM

网页编程众测排名:DeepSeek-R1超越Claude 4加冕全球第一

编程王者Claude地位不稳了? ? 大模型竞技场最新战报出炉,DeepSeek新版R1拿下网页编程第一,小胜Claude Opus 4。
6/17/2025 5:14:01 PM

突破多智能体系统边界,开源方案OWL超越OpenAI Deep Research,获17k star

港大、camel-ai 等多家机构联合提出了一种名为新的名为 Workforce 的创新多智能体框架,以及配套的 OWL(Optimized Workforce Learning)训练方法,在通用 AI Assistant 的标杆基准测试 GAIA 上取得了 69.70% 的准确率,不仅刷新了开源系统的最佳纪录,更是超越了多家商业系统以及 OpenAI Deep Research 的开源方案。 该研究成果所有代码均已开源,目前已经在 github 上收获了 17k 的 star。 论文标题:OWL: Optimized Workforce Learning for General Multi-Agent Assistance in Real-World Task Automation论文地址:::多智能体系统的「领域壁垒」随着 LLM 的飞速发展,单一智能体在处理复杂现实任务时逐渐暴露出局限性。
6/17/2025 3:28:03 PM

同一天开源新模型,一推理一编程,MiniMax和月之暗面开卷了

同一天,国内大模型厂商扎堆发起了新模型。 AI「六小龙」中的 MiniMax 和月之暗面各自公布了开源新成果。 其中,MiniMax 启动了「MiniMax Week」,并在第一天开源了其最新的长上下文推理 LLM——MiniMax-M1。
6/17/2025 3:24:48 PM

刚刚,LMArena最新模型榜单出炉!DeepSeek-R1网页编程能力赶超了Claude Opus 4

在开源模型领域,DeepSeek 又带来了惊喜。 上个月 28 号,DeepSeek 来了波小更新,其 R1 推理模型升级到了最新版本(0528),并公开了模型及权重。 这一次,R1-0528 进一步改进了基准测试性能,提升了前端功能,减少了幻觉,支持 JSON 输出和函数调用。
6/17/2025 9:09:00 AM

Kimi新模型拿下代码开源SOTA,仅仅72B,发布即开源

深夜,沉寂已久的Kimi突然发布了新模型——开源代码模型Kimi-Dev,在SWE-bench Verified上以60.4%的成绩取得开源SOTA。 参数量只有72B,但编程水平比最新的DeepSeek-R1还强,和闭源模型比较也表现优异。 有网友看到后表示,感觉月之暗面的实力被低估了,其水平应该比xAI强。
6/17/2025 9:07:24 AM

10% KV Cache实现无损数学推理!这个开源方法解决推理大模型「记忆过载」难题

推理大模型虽好,但一个简单的算数问题能推理整整三页,还都是重复的“废话”,找不到重点……一种可以把大模型的“碎碎念”转化为可控记忆条目的高效压缩方法,出现了! R-KV开源登场:显存↓90%、吞吐×6.6、准确率=100%。 它可以通过实时对token进行排序,兼顾重要性和非冗余性,仅保留信息丰富且多样化的token,从而解决大模型推理时的冗余问题。
6/16/2025 2:41:07 PM

如何选择最佳多模态大模型压缩方案?哈工大、度小满开源EFFIVLM-BENCH基准测试框架

在金融科技智能化转型进程中,大语言模型以及多模态大模型(LVLM)正成为核心技术驱动力。 尽管 LVLM 展现出卓越的跨模态认知能力,其部署却长期受限于显著的算力瓶颈 —— 大小中等的模型一次多图推理可能需要 100 G 的显存空间,严重制约产业落地。 针对这一技术痛点,哈工大团队联合度小满金融科技正式发布 EFFIVLM-BENCH,业界首个支持跨场景统一评估的多模态大模型高效化基准框架,为学术界提供可复现的压缩方案对比基准,同时赋能工业界实现最优部署策略遴选。
6/16/2025 2:39:56 PM

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

开源社区的人应该对 vLLM 不陌生,它是一个由加州大学伯克利分校团队开发的高性能、开源 LLM 推理和服务引擎,核心目标是提升 LLM 的推理速度(吞吐量)和资源利用率(尤其是内存),同时兼容 Hugging Face 等流行模型库。 简单来说,vLLM 能让 GPT、Mistral、LLaMA 等主流模型系列跑得更快、消耗更少资源,取得这些效果的关键是其创新的注意力机制实现方案 ——PagedAttention。 近日,DeepSeek AI 研究者、深度学习系统工程师俞星凯从零开始构建了一个轻量级 vLLM 实现 ——Nano-vLLM,将代码简化到了 1200 行。
6/13/2025 2:16:37 PM

最大的开源GraphRag:知识图谱完全自主构建|港科大&华为

知识图谱(KGs)已经可以很好地将海量的复杂信息整理成结构化的、机器可读的知识,但目前的构建方法仍需要由领域专家预先创建模式,这限制了KGs的可扩展性、适应性和领域覆盖范围。 为此,香港科技大学KnowComp实验室联合香港华为理论部提出了AutoSchemaKG:一个无需预定义模式、用于完全自主知识图谱构建的框架。 该系统利用大型语言模型,可以直接从文本中同时提取知识三元组并归纳出全面的模式,对实体和事件进行建模,同时采用概念化方法将实例组织成语义类别。
6/12/2025 11:56:30 AM

o3绞尽脑汁仅答对40%的题目,开源模型基本乱猜?MMSI-Bench:多图空间智能试金石

AI能看图,也能讲故事,但能理解“物体在哪”“怎么动”吗? 空间智能,正是大模型走向具身智能的关键拼图。 面对1000道多图推理题,开源大模型集体失守——准确率不到30%,甚至不如瞎猜!
6/12/2025 9:05:00 AM

Mistral的首个强推理模型:拥抱开源,推理速度快10倍

大模型强推理赛道,又迎来一位重量级玩家。 本周二,欧洲人工智能公司 Mistral AI 发布了 Magistral,这是一个全新的大语言模型(LLM)系列,展现了强大的推理能力。 它能够进行不断反思,并解决更复杂的任务。
6/11/2025 2:39:50 PM

法国 AI 实验室 Mistral 推出推理模型 Magistral 系列,Small 版已开源

6 月 11 日消息,法国人工智能实验室 Mistral 周二宣布进军推理人工智能模型领域。 6 月 . 10 日,Mistral 正式推出其首个推理模型系列 .
6/11/2025 9:19:46 AM
远洋

0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源

端侧性价比之王,清华大学和面壁智能团队开源新模型——MiniCPM 4,提供8B、0.5B两种参数规模,仅使用同级别开源模型22%的训练开销,就达到了同级别最优性能。 MiniCPM4-8B是开源首个开源的原生稀疏模型,5%的极高稀疏度加持,让长文本、深思考在端侧真正跑起来。 在MMLU、CEval、MATH500、HumanEval等基准测试中,以仅22%的训练开销,性能比肩 Qwen-3-8B,超越Gemma-3-12B。
6/11/2025 9:03:29 AM