AI在线 AI在线

模型

英伟达联手MIT清北发布SANA 1.5!线性扩散Transformer再刷文生图新SOTA

近年来,文本生成图像的技术不断突破,但随着模型规模的扩大,计算成本也随之急剧上升。 为此,英伟达联合MIT、清华、北大等机构的研究人员提出了一种高效可扩展的线性扩散Transformer——SANA,在大幅降低计算需求的情况下,还能保持有竞争力的性能。 SANA1.5在此基础上,聚焦了两个关键问题:线性扩散Transformer的可扩展性如何?
2/7/2025 2:01:20 PM
新智元

DeepSeek R1 集成难题完美解决:Deepseek4j 已开源

一、为什么需要 deepseek4j? 1.1 现有框架的局限性思维链内容丢失:R1 最核心的推理过程完全被忽略响应模式不兼容:无法处理"思考在前、结论在后"的输出模式参数限制:temperature、top_p 等关键参数设置失效流式处理不完善:用户体验欠佳虽然笔者上篇博客介绍了如何使用 WebFlux 直接调用 DeepSeek API,但这种方式存在一些问题:开发成本高:直接调用 API 或改造现有框架需要处理大量细节,包括请求构建、响应解析、错误处理等。 一不做二不休,为了彻底解决这些问题,笔者基于 OpenAI4J[1] 项目的优秀架构,打造了一个专门面向 DeepSeek 的开箱即用方案 DeepSeek4J[2]增强支持 DeepSeek 独有的思维链和账单特性增加 Project Reactor 的全面响应式支持提供集成 Spring Boot Starter,提供自动配置 二、核心特性 ✨ 完整保留思维链能力、账单🚀 响应式流式处理🛠 简单优雅的 API 设计📦 开箱即用的 Spring Boot 集成,同时支持 2.x / 3.x💡 内置调试页面🔍 详细的请求响应日志🔧 灵活的代理配置⚡️ 响应式编程支持 三、快速开始 3.1 添加依赖复制3.2 配置参数复制3.3 基础使用复制3.4 进阶配置复制
2/7/2025 1:10:06 PM
冷冷

未来教室的变革:大语言模型LLM会取代老师吗?揭秘教育新纪元

大语言模型(LLM)的发展是近年来人工智能领域的重要突破,其背后是深度学习、自然语言处理等技术的快速进步。 从早期的简单问答系统到现在能够理解和生成复杂文本的智能模型,大语言模型已经广泛应用于各个领域,包括客服机器人、智能搜索引擎、自动化写作等。 随着技术的进步,人们开始探讨这样一个问题:大语言模型是否将在未来取代老师的角色?
2/7/2025 12:54:57 PM
tune

突发!o3-mini思维链公开,却被曝光全是「作假」,奥特曼现身解释网友炸锅

OpenAI,真的被DeepSeek逼急了! 活久见,就在刚刚,OpenAI把o3-mini的「思维链」公开了。 比如问「怎么今天不是星期五啊😅」?
2/7/2025 11:20:50 AM
新智元

DeepSeek开源Janus-Pro-7B:多模态AI模型性能超越DALL-E 3 和 Stable Diffusion 3!

中国人工智能公司 DeepSeek 的 R1“推理”人工智能已经引起了广泛关注,位居应用商店排行榜首位并改变了股市。 随后DeepSeek又宣布开源新一代多模态模型Janus-Pro-7B,该模型在图像生成、视觉问答等任务中全面超越 OpenAI 的 DALL-E 3 和 Stable Diffusion 3,并以“理解-生成双路径”架构和极简部署方案引发AI社区轰动。 性能表现:小模型吊打行业巨头Janus-Pro-7B虽仅有70亿参数(约为GPT-4的1/25),却在关键测试中碾压对手:文生图质量:在GenEval测试中以80%准确率击败DALL-E 3(67%)和Stable Diffusion 3(74%)复杂指令理解:在DPG-Bench测试中达84.19%准确率,能精准生成如“山脚下有蓝色湖泊的雪山”等复杂场景多模态问答:视觉问答准确率超越GPT-4V,MMBench测试得分79.2分接近专业分析模型技术突破:像“双面神”分工协作传统模型让同一套视觉编码器既理解图片又生成图片,如同让厨师同时设计菜单和炒菜。
2/7/2025 11:00:00 AM
AIGC Studio

DeepSeek开源多模态模型Janus-Pro的ComfyUI使用教程,文中附模型和工作流下载

今天给大家介绍DeepSeek发布的Janus-Pro模型的ComfyUI实践教程,包含ComfyUI安装,模型下载,工作流下载等,欢迎大家一起交流学习,也欢迎添加公众号小助手加入读者交流群,一起探索AIGC好玩的应用。 Janus Pro 是 DeepSeek 于 2025年1月27日开源的多模态模型,同时具有图像理解和生成的能力。
2/7/2025 10:21:42 AM
AIGC Studio

817样本激发7倍推理性能:上交大「少即是多」定律挑战RL Scaling范式

在追求人工智能极限的道路上,"更大即更强" 似乎已成为共识。 特别是在数学推理这一被视为 AI 终极挑战的领域,业界普遍认为需要海量数据和复杂的强化学习才能获得突破。 然而,来自上海交通大学的最新研究却给出了一个令人震惊的答案:仅需 817 条精心设计的样本,就能让模型在数学竞赛级别的题目上超越当前许多最先进模型。
2/7/2025 9:00:00 AM
机器之心

不到140块!李飞飞团队超低成本复刻DeepSeek R1推理!16张H100只训练了26分钟,与R1训练方法不同!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)太魔鬼了! 上周李飞飞团队发了篇新论文,再次降低了复刻o1能力的成本。 低到什么程度呢?
2/6/2025 6:37:46 PM
伊风

16张H100训26分钟,超越o1-preview!李飞飞等用1K样本,揭秘测试时Scaling

OpenAI o系列模型为何性能如此强大? OpenAI将他们的方法描述为使用大规模强化学习(RL),暗示使用了大量的数据。 最近大火的DeepSeek-R1模型也通过使用数百万个样本和多个训练阶段使用强化学习的方式,成功地达到了o1级别的性能。
2/6/2025 2:28:16 PM
新智元

​对标DeepSeek,Gemini 2.0轻量模型开卷“极致性价比”!谷歌守住多模态阵地,油管、地图应用们都要开始做推理了!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)DeepSeek的火热,让Google坐不住了! 深夜,Google推出了Gemini 2.0全家桶,一口气推出了三个模型型号:Gemini 2.0 Flash、Gemini 2.0 Flash-LiteGemini 2.0 Pro。 图片看技术报告,2.0系列的三个模型在通用、代码、推理、事实性、多语言等方面指标如下。
2/6/2025 1:13:07 PM
伊风

力压DeepSeek-R1!谷歌Gemini 2.0系列集体上新,全员跻身大模型竞技场前10

终于,谷歌DeepMind坐不住了,出手就是超越DeepSeek-R1! 劈柴哥亲自官宣Gemini 2.0家族更新,分别是Gemini 2.0 Flash、Gemini 2.0 Pro、Gemini 2.0 Flash-Lite。 同时,稳居大模型竞技场第1名的推理模型Gemini 2.0 Flash Thinking,已在Gemini App中推出。
2/6/2025 12:10:00 PM
量子位

零样本 | ZeroDiff:扩散模型助力零样本学习,打破数据限制,实现高效泛化

一眼概览ZeroDiff 提出了一种基于扩散模型的生成式零样本学习(ZSL)方法,提升数据利用效率,实现类别级和实例级的增强。 在多个ZSL基准数据集上,ZeroDiff 取得了显著的性能提升,特别是在数据稀缺情况下仍保持稳健。 核心问题零样本学习(ZSL)试图在无训练样本的情况下识别新类别,主要依赖于已知类别的语义信息。
2/6/2025 11:25:50 AM
萍哥学AI

终结谷歌搜索!OpenAI免费开放ChatGPT搜索,无需注册

今天凌晨3点,OpenAI宣布向所有用户开放ChatGPT搜索功能,无需注册。 与谷歌那种传统收录模式的搜索引擎相比,ChatGPT搜索可以更快抓取网络信息,能实现分钟级别的解析,这对于股票、体育、财经等,需要第一时间快速获取新闻内容的行业帮助非常大。 同时借助大模型的能力,可以更好地解读用户的搜索想法,并且可以提供搜索结果的源地址。
2/6/2025 11:00:00 AM
AIGC开放社区

小红书提出新面部视频交换方法DynamicFace,可生成高质量且一致的视频面部图像

DynamicFace是一种新颖的面部视频交换方法,旨在生成高质量且一致的视频面部图像。 该方法结合了扩散模型的强大能力和可插拔的时间层,以解决传统面部交换技术面临的两个主要挑战:在保持源面部身份的同时,准确传递目标面部的运动信息。 通过引入四种细粒度的面部条件,DynamicFace能够对面部特征进行更精确的控制,从而实现高保真度的面部交换。
2/6/2025 10:45:00 AM
AIGC Studio

Figure与OpenAI解除合作!人形机器人迎来iPhone时刻,AGI已在内部实现?

刚刚,爆火出圈人形机器人Figure与OpenAI终止合作了! 创始人Brett Adcock称,我们已经在端到端AI上取得了重大突破,且完全由内部团队独立研发。 「未来一个月,我们将会展示前所未有的机器人技术」。
2/6/2025 10:25:00 AM
新智元

为什么大语言模型难以处理长上下文?从 Transformer 到 Mamba

OpenAI 在两年前推出 ChatGPT 时,其能够处理的上下文信息仅有 8,192 个 tokens1。 换言之,如果输入的文本超过大约 15 页,它就会“遗忘”最初的上下文内容。 这一限制使得 ChatGPT 在处理任务时的规模和复杂度都受到了影响。
2/6/2025 10:21:51 AM
追求卓越的

AAAI 2025 | 大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

本文作者为北京邮电大学网络空间安全学院硕士研究生倪睿康,指导老师为肖达副教授。 主要研究方向包括自然语言处理、模型可解释性。 该工作为倪睿康在彩云科技实习期间完成。
2/6/2025 10:16:00 AM
机器之心

数学真理的极限在哪里?希尔伯特第十问题扩展版得到证明

数学世界充满了无法触及的角落,那里存在着许许多多无法解决的问题。 现在,又一个角落被照亮了。 1900 年,著名数学家大卫・希尔伯特(David Hilbert)公布了一份清单,其中包含 23 个关键问题,并希望以此指导下个世纪的数学研究。
2/6/2025 9:50:00 AM
机器之心