模型
英伟达联手MIT清北发布SANA 1.5!线性扩散Transformer再刷文生图新SOTA
近年来,文本生成图像的技术不断突破,但随着模型规模的扩大,计算成本也随之急剧上升。 为此,英伟达联合MIT、清华、北大等机构的研究人员提出了一种高效可扩展的线性扩散Transformer——SANA,在大幅降低计算需求的情况下,还能保持有竞争力的性能。 SANA1.5在此基础上,聚焦了两个关键问题:线性扩散Transformer的可扩展性如何?
2/7/2025 2:01:20 PM
新智元
DeepSeek R1 集成难题完美解决:Deepseek4j 已开源
一、为什么需要 deepseek4j? 1.1 现有框架的局限性思维链内容丢失:R1 最核心的推理过程完全被忽略响应模式不兼容:无法处理"思考在前、结论在后"的输出模式参数限制:temperature、top_p 等关键参数设置失效流式处理不完善:用户体验欠佳虽然笔者上篇博客介绍了如何使用 WebFlux 直接调用 DeepSeek API,但这种方式存在一些问题:开发成本高:直接调用 API 或改造现有框架需要处理大量细节,包括请求构建、响应解析、错误处理等。 一不做二不休,为了彻底解决这些问题,笔者基于 OpenAI4J[1] 项目的优秀架构,打造了一个专门面向 DeepSeek 的开箱即用方案 DeepSeek4J[2]增强支持 DeepSeek 独有的思维链和账单特性增加 Project Reactor 的全面响应式支持提供集成 Spring Boot Starter,提供自动配置 二、核心特性 ✨ 完整保留思维链能力、账单🚀 响应式流式处理🛠 简单优雅的 API 设计📦 开箱即用的 Spring Boot 集成,同时支持 2.x / 3.x💡 内置调试页面🔍 详细的请求响应日志🔧 灵活的代理配置⚡️ 响应式编程支持 三、快速开始 3.1 添加依赖复制3.2 配置参数复制3.3 基础使用复制3.4 进阶配置复制
2/7/2025 1:10:06 PM
冷冷
未来教室的变革:大语言模型LLM会取代老师吗?揭秘教育新纪元
大语言模型(LLM)的发展是近年来人工智能领域的重要突破,其背后是深度学习、自然语言处理等技术的快速进步。 从早期的简单问答系统到现在能够理解和生成复杂文本的智能模型,大语言模型已经广泛应用于各个领域,包括客服机器人、智能搜索引擎、自动化写作等。 随着技术的进步,人们开始探讨这样一个问题:大语言模型是否将在未来取代老师的角色?
2/7/2025 12:54:57 PM
tune
突发!o3-mini思维链公开,却被曝光全是「作假」,奥特曼现身解释网友炸锅
OpenAI,真的被DeepSeek逼急了! 活久见,就在刚刚,OpenAI把o3-mini的「思维链」公开了。 比如问「怎么今天不是星期五啊😅」?
2/7/2025 11:20:50 AM
新智元
DeepSeek开源Janus-Pro-7B:多模态AI模型性能超越DALL-E 3 和 Stable Diffusion 3!
中国人工智能公司 DeepSeek 的 R1“推理”人工智能已经引起了广泛关注,位居应用商店排行榜首位并改变了股市。 随后DeepSeek又宣布开源新一代多模态模型Janus-Pro-7B,该模型在图像生成、视觉问答等任务中全面超越 OpenAI 的 DALL-E 3 和 Stable Diffusion 3,并以“理解-生成双路径”架构和极简部署方案引发AI社区轰动。 性能表现:小模型吊打行业巨头Janus-Pro-7B虽仅有70亿参数(约为GPT-4的1/25),却在关键测试中碾压对手:文生图质量:在GenEval测试中以80%准确率击败DALL-E 3(67%)和Stable Diffusion 3(74%)复杂指令理解:在DPG-Bench测试中达84.19%准确率,能精准生成如“山脚下有蓝色湖泊的雪山”等复杂场景多模态问答:视觉问答准确率超越GPT-4V,MMBench测试得分79.2分接近专业分析模型技术突破:像“双面神”分工协作传统模型让同一套视觉编码器既理解图片又生成图片,如同让厨师同时设计菜单和炒菜。
2/7/2025 11:00:00 AM
AIGC Studio
DeepSeek开源多模态模型Janus-Pro的ComfyUI使用教程,文中附模型和工作流下载
今天给大家介绍DeepSeek发布的Janus-Pro模型的ComfyUI实践教程,包含ComfyUI安装,模型下载,工作流下载等,欢迎大家一起交流学习,也欢迎添加公众号小助手加入读者交流群,一起探索AIGC好玩的应用。 Janus Pro 是 DeepSeek 于 2025年1月27日开源的多模态模型,同时具有图像理解和生成的能力。
2/7/2025 10:21:42 AM
AIGC Studio
817样本激发7倍推理性能:上交大「少即是多」定律挑战RL Scaling范式
在追求人工智能极限的道路上,"更大即更强" 似乎已成为共识。 特别是在数学推理这一被视为 AI 终极挑战的领域,业界普遍认为需要海量数据和复杂的强化学习才能获得突破。 然而,来自上海交通大学的最新研究却给出了一个令人震惊的答案:仅需 817 条精心设计的样本,就能让模型在数学竞赛级别的题目上超越当前许多最先进模型。
2/7/2025 9:00:00 AM
机器之心
不到140块!李飞飞团队超低成本复刻DeepSeek R1推理!16张H100只训练了26分钟,与R1训练方法不同!
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)太魔鬼了! 上周李飞飞团队发了篇新论文,再次降低了复刻o1能力的成本。 低到什么程度呢?
2/6/2025 6:37:46 PM
伊风
16张H100训26分钟,超越o1-preview!李飞飞等用1K样本,揭秘测试时Scaling
OpenAI o系列模型为何性能如此强大? OpenAI将他们的方法描述为使用大规模强化学习(RL),暗示使用了大量的数据。 最近大火的DeepSeek-R1模型也通过使用数百万个样本和多个训练阶段使用强化学习的方式,成功地达到了o1级别的性能。
2/6/2025 2:28:16 PM
新智元
对标DeepSeek,Gemini 2.0轻量模型开卷“极致性价比”!谷歌守住多模态阵地,油管、地图应用们都要开始做推理了!
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)DeepSeek的火热,让Google坐不住了! 深夜,Google推出了Gemini 2.0全家桶,一口气推出了三个模型型号:Gemini 2.0 Flash、Gemini 2.0 Flash-LiteGemini 2.0 Pro。 图片看技术报告,2.0系列的三个模型在通用、代码、推理、事实性、多语言等方面指标如下。
2/6/2025 1:13:07 PM
伊风
力压DeepSeek-R1!谷歌Gemini 2.0系列集体上新,全员跻身大模型竞技场前10
终于,谷歌DeepMind坐不住了,出手就是超越DeepSeek-R1! 劈柴哥亲自官宣Gemini 2.0家族更新,分别是Gemini 2.0 Flash、Gemini 2.0 Pro、Gemini 2.0 Flash-Lite。 同时,稳居大模型竞技场第1名的推理模型Gemini 2.0 Flash Thinking,已在Gemini App中推出。
2/6/2025 12:10:00 PM
量子位
零样本 | ZeroDiff:扩散模型助力零样本学习,打破数据限制,实现高效泛化
一眼概览ZeroDiff 提出了一种基于扩散模型的生成式零样本学习(ZSL)方法,提升数据利用效率,实现类别级和实例级的增强。 在多个ZSL基准数据集上,ZeroDiff 取得了显著的性能提升,特别是在数据稀缺情况下仍保持稳健。 核心问题零样本学习(ZSL)试图在无训练样本的情况下识别新类别,主要依赖于已知类别的语义信息。
2/6/2025 11:25:50 AM
萍哥学AI
终结谷歌搜索!OpenAI免费开放ChatGPT搜索,无需注册
今天凌晨3点,OpenAI宣布向所有用户开放ChatGPT搜索功能,无需注册。 与谷歌那种传统收录模式的搜索引擎相比,ChatGPT搜索可以更快抓取网络信息,能实现分钟级别的解析,这对于股票、体育、财经等,需要第一时间快速获取新闻内容的行业帮助非常大。 同时借助大模型的能力,可以更好地解读用户的搜索想法,并且可以提供搜索结果的源地址。
2/6/2025 11:00:00 AM
AIGC开放社区
小红书提出新面部视频交换方法DynamicFace,可生成高质量且一致的视频面部图像
DynamicFace是一种新颖的面部视频交换方法,旨在生成高质量且一致的视频面部图像。 该方法结合了扩散模型的强大能力和可插拔的时间层,以解决传统面部交换技术面临的两个主要挑战:在保持源面部身份的同时,准确传递目标面部的运动信息。 通过引入四种细粒度的面部条件,DynamicFace能够对面部特征进行更精确的控制,从而实现高保真度的面部交换。
2/6/2025 10:45:00 AM
AIGC Studio
Figure与OpenAI解除合作!人形机器人迎来iPhone时刻,AGI已在内部实现?
刚刚,爆火出圈人形机器人Figure与OpenAI终止合作了! 创始人Brett Adcock称,我们已经在端到端AI上取得了重大突破,且完全由内部团队独立研发。 「未来一个月,我们将会展示前所未有的机器人技术」。
2/6/2025 10:25:00 AM
新智元
为什么大语言模型难以处理长上下文?从 Transformer 到 Mamba
OpenAI 在两年前推出 ChatGPT 时,其能够处理的上下文信息仅有 8,192 个 tokens1。 换言之,如果输入的文本超过大约 15 页,它就会“遗忘”最初的上下文内容。 这一限制使得 ChatGPT 在处理任务时的规模和复杂度都受到了影响。
2/6/2025 10:21:51 AM
追求卓越的
AAAI 2025 | 大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路
本文作者为北京邮电大学网络空间安全学院硕士研究生倪睿康,指导老师为肖达副教授。 主要研究方向包括自然语言处理、模型可解释性。 该工作为倪睿康在彩云科技实习期间完成。
2/6/2025 10:16:00 AM
机器之心
数学真理的极限在哪里?希尔伯特第十问题扩展版得到证明
数学世界充满了无法触及的角落,那里存在着许许多多无法解决的问题。 现在,又一个角落被照亮了。 1900 年,著名数学家大卫・希尔伯特(David Hilbert)公布了一份清单,其中包含 23 个关键问题,并希望以此指导下个世纪的数学研究。
2/6/2025 9:50:00 AM
机器之心
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
模型
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Stable Diffusion
Gemini
马斯克
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
计算
Anthropic
3D
Sora
AI for Science
AI设计
机器学习
开发者
GPU
AI视频
华为
场景
人形机器人
预测
百度
苹果
伟达
Transformer
深度学习
xAI
Claude
模态
字节跳动
大语言模型
搜索
驾驶
具身智能
神器推荐
文本
Copilot
LLaMA
算力
安全
视觉
视频生成
训练
干货合集
应用
大型语言模型
亚马逊
科技
智能体
AGI
DeepMind