AI在线 AI在线

模型

IEEE TPAMI 2025 | 北京大学提出LSTKC++,长短期知识解耦与巩固驱动的终身行人重识别

本文的第一作者为北京大学博士二年级学生徐昆仑,通讯作者为北京大学王选计算机研究所研究员、助理教授周嘉欢。 近日,北京大学王选计算机研究所周嘉欢团队在人工智能重要国际期刊 IEEE TPAMI 发布了一项最新的研究成果:LSTKC  。 该框架引入了长短期知识解耦与动态纠正及融合机制,有效保障了模型在终身学习过程中对新知识的学习和对历史知识的记忆。
7/3/2025 9:16:41 AM

字节图像生成新模型:主打多主体一致性,新基准数据集同时亮相

设定角色,让AI照“本”生成主角不变的不同图像,对于各路AIGC工具来说一直是不小的挑战。 而现在,字节再进一步,最新发布多主体控制生成模型Xverse——既可以对设定好的每个主体进行精确控制,也不会破坏图像的生成质量。 多主体?
7/3/2025 9:09:51 AM

MoE那么大,几段代码就能稳稳推理 | 开源

混合专家网络模型架构(MoE)已经成为当前大模型的一个主流架构选择,以最近开源的盘古Pro MoE为例,其基于MoGE架构构建的混合专家架构,总参数量达720亿,激活参数量为160亿,专门针对昇腾硬件优化,在性能与效率上表现突出。 盘古还实现了在推理时做到又快又稳。 在技术特性上,盘古模型引入 “快思考” 和 “慢思考” 双系统,可根据问题复杂度自动切换响应模式,并在推理性能上实现突破——在昇腾800I A2上单卡推理吞吐性能达1148 tokens/s,经投机加速技术可提升至1528 tokens/s,显著优于同等规模稠密模型。
7/3/2025 9:05:40 AM

ChatGPT诞生内幕大曝光!发布前一晚还在纠结

ChatGPT诞生内幕最新大曝光:纳尼? ? 原来“ChatGPT”这个名字,直到发布前一晚才确定下来。
7/3/2025 9:01:49 AM

AI在不安全代码上训练后变得邪恶

研究揭示,用不安全代码微调 LLM 会导致“突发不一致”,模型可能产生有害建议。 GPT-4o 等模型在编码无关查询中表现出反人类、赞扬纳粹等行为。 需警惕数据投毒和后门攻击,加强 AI 对齐,防范 ASI 风险。
7/3/2025 4:00:00 AM
岱军

Grok 4源代码刚刚泄露!上线倒计时,马斯克xAI估值破1130亿,大模型要变天

突发消息:Grok 4即将上线! 与此同时,xAI再度获得百亿美元融资,估值已经直冲1130亿。 马斯克的AI帝国,再度以可怕的规模扩张。
7/2/2025 2:42:03 PM

9B“小”模型干了票“大”的:性能超8倍参数模型,拿下23项SOTA | 智谱开源

如果一个视觉语言模型(VLM)只会“看”,那真的是已经不够看的了。 因为现在真实世界的任务简直不要太复杂,要想让AI干点实事儿,光有多模态还不够,必须还得有深度思考的强推理能力。 而就在刚刚,智谱发布并开源了一个仅9B大小的模型——GLM-4.1V-9B-Thinking,在28项评测中一举拿下23个SOTA!
7/2/2025 2:39:29 PM

ICML 2025 Spotlight | 清华朱军组&NVIDIA提出DDO:扩散/自回归模型训练新范式,刷新图像生成SOTA

文章一作郑凯文为清华大学三年级博士生,研究方向为深度生成模型,曾提出流式扩散模型最大似然估计改进技术 i-DODE,扩散模型高效采样器 DPM-Solver-v3,扩散桥模型采样器 DBIM 以及掩码式离散扩散模型采样器 FHS 等。 清华大学朱军教授团队与 NVIDIA Deep Imagination 研究组联合提出一种全新的视觉生成模型优化范式 —— 直接判别优化(DDO)。 该方法将基于似然的生成模型(如扩散模型、自回归模型)隐式参数化为 GAN,从而设计出一种无需额外网络、训练高效的微调方法,并大幅突破传统最大似然训练的性能瓶颈。
7/2/2025 9:21:30 AM

Meta“1亿美元年薪”震荡硅谷!奥特曼回应:总有人唯利是图,而且都算不上TOP

疯狂,太疯狂。 这两天,硅谷乃至全球AI领域的注意力都被Meta老板扎克伯克带走了,毕竟也不是谁都能boss直聘,一举挖走8名OpenAI核心员工。 更何况其中大部分,还是以聪明能干吃苦耐劳著称的华人研究员。
7/2/2025 9:13:56 AM

华为又开源了个大的:超大规模MoE推理秘籍

超大规模MoE模型(如DeepSeek),到底该怎么推理才能做到又快又稳。 现在,这个问题似乎已经有了标准答案——华为一个新项目,直接把推理超大规模MoE背后的架构、技术和代码,统统给开源了! 这个新开源项目名叫Omni-Infer,整体来看,它对于企业用户来说是非常利好的。
7/2/2025 8:55:00 AM

超越微软,全球第一!上交AI智能体炼成「Kaggle特级大师」,登顶OpenAI MLE-bench

就在刚刚,一支来自中国高校的团队成功刷榜了OpenAI发布的权威基准测试MLE-bench! 这一次,荣耀属于上海交通大学人工智能学院Agents团队。 他们提出的AI专家智能体「ML-Master」,凭借着29.3%的平均奖牌率,拿下第一!
7/2/2025 8:50:00 AM

策略改写「一战历史」!中科院开源全新博弈智能体框架DipLLM

围棋、德州扑克曾是AI崛起的试炼场,从AlphaGo到Libratus,人工智能不断刷新策略上限。 但接下来的战场更难——Diplomacy:一款融合协作与竞争的七人博弈游戏,单轮动作空间高达10的64次方,其策略建模复杂度前所未有! 为此,Meta曾推出智能体Cicero[Meta, Science 2022],结合人类数据与策略搜索,在该领域实现突破,但其方法高度依赖超大规模均衡搜索与重资源训练,难以扩展与迁移。
7/2/2025 8:43:00 AM

伯克利&Meta面向具身智能的世界模型:让AI通过全身动作「看见」未来

本文基于 Yutong Bai、Danny Tran、Amir Bar、Yann LeCun、Trevor Darrell 和 Jitendra Malik 等人的研究工作。 论文标题:Whole-Body Conditioned Egocentric Video Prediction论文地址:::,人工智能领域一直在思考一个看似简单但非常根本的问题:如果一个智能体要在真实世界中行动、规划,并且和环境互动,它需要一个怎样的「世界模型」? 在很多早期研究中,世界模型就是一个预测引擎:只要给它一个抽象的控制指令,比如「向前走一米」或者「向左转 30 度」,它就能模拟出未来的图像。
7/2/2025 8:40:00 AM

1080p飞升4k,浙大开源原生超高清视频生成方案,突破AI视频生成清晰度上限

为什么AI生成的视频总是模糊卡顿? 为什么细节纹理经不起放大? 为什么动作描述总与画面错位?
7/2/2025 8:30:00 AM

小扎“挖人”超级智能团队名单泄露:华人占一半,Alexandr Wang领导

据报刚刚小扎在一份内部备忘录中,正式向员工介绍了其新组建的“超级智能”团队20几名成员,名单和简历显示,许多新入职的员工都来自AI领域的顶尖对手公司,其中华人占了快一半了整个组织命名为Meta超级智能实验室(MSL),包括所有的基础模型、产品和FAIR团队,以及一个专注于开发下一代模型的新实验室小扎向Scale AI投资了143亿美元,并聘请Scale AI CEO Alexandr Wang将担任公司的“首席AI官”并领导MSL。 同时,前GitHub CEO Nat Friedman将与Wang共同领导这个新实验室,专注于AI产品和应用研究小扎这一把砸下上百亿美金,真是下血本了,这其实也是Deepseek的威力,因为R1彻底颠覆了Meta的 llama开源模型名单以下是Zuckerberg备忘录中公布的新员工名单。 值得注意的是,这份名单并未包括从OpenAI苏黎世办公室加入的员工其中四名OpenAI华人顶尖研发领导。
7/1/2025 9:10:42 AM

只用2700万参数,这个推理模型超越了DeepSeek和Claude

大模型的架构,到了需要变革的时候? 在对复杂任务的推理工作上,当前的大语言模型(LLM)主要采用思维链(CoT)技术,但这些技术存在任务分解复杂、数据需求大以及高延迟等问题。 近日,受到人脑分层和多时间尺度处理机制启发,来自 Sapient Intelligence 的研究者提出了分层推理模型(HRM),这是一种全新循环架构,能够在保持训练稳定性和效率的同时,实现高计算深度。
7/1/2025 9:08:00 AM

性能提升84%-166%!L-Zero仅靠强化学习解锁大模型探索世界的能力 | 已开源

大模型可以不再依赖人类调教,真正“自学成才”啦? 新研究仅通过RLVR(可验证奖励的强化学习),成功让模型自主进化出通用的探索、验证与记忆能力,让模型学会“自学”! 当前主流的LLM Agent依然高度依赖于提示词工程、复杂的系统编排、甚至静态规则表,这使得它们在面对复杂任务时难以实现真正的智能行为演化。
7/1/2025 9:05:28 AM

黑化威胁操纵人类!Claude勒索,o1自主逃逸,人类「执剑人」紧急上线

我们可能都「被AI骗了」。 最先进的AI正走在一条「危险进化」的道路上,而绝大部分科学家们都被AI欺骗了! 当DeepSeek在年初将「推理过程」完全展示给世人后,我们突然发现「思考」好像也并不是人类专属的能力。
7/1/2025 9:02:06 AM