资讯列表
谷歌 AI 搜索功能被指冲击新闻出版商流量:未经许可提取内容 + 低链接率
据《华尔街日报》报道,谷歌AI概览工具导致新闻网站流量大幅下降,出版商们正寻求新的商业模式应对冲击。一些出版商已与AI公司达成内容共享协议,如《纽约时报》与亚马逊合作。#AI冲击新闻业# #谷歌AI#
6/11/2025 12:34:02 PM
远洋
AI 助长“幽灵学生”骗局,美国社区大学遭遇助学金诈骗潮
这些机器人通常在课程中短暂停留,等待资金到账后即“消失”,部分高校甚至出现一整个班级几乎没有真实学生的现象。
6/11/2025 11:27:55 AM
清源
字节跳动推出豆包大模型 1.6 和视频模型 Seedance1.0,前者客户使用成本降至三分之一
火山引擎今日发布豆包大模型1.6和视频生成模型Seedance 1.0 pro,豆包1.6在复杂推理、竞赛级数学等测试中表现全球前列,Seedance在文生视频、图生视频任务中排名首位。豆包大模型已服务全球TOP10手机厂商中的9家、8成主流汽车品牌等。#火山引擎# #豆包大模型#
6/11/2025 10:56:35 AM
远洋
扩散语言模型真的会比自回归好?理论分析结果可能恰恰相反
本工作来自北京大学智能学院贺笛老师课题组与蚂蚁集团武威团队。 贺笛老师在机器学习领域获得过多项荣誉,包括 ICLR 2023 杰出论文奖与 ICLR 2024 杰出论文奖提名。 扩散模型近年来在图像生成领域取得了令人瞩目的成就,其生成图像的质量和多样性令人惊叹。
6/11/2025 9:21:28 AM
法国 AI 实验室 Mistral 推出推理模型 Magistral 系列,Small 版已开源
6 月 11 日消息,法国人工智能实验室 Mistral 周二宣布进军推理人工智能模型领域。 6 月 . 10 日,Mistral 正式推出其首个推理模型系列 .
6/11/2025 9:19:46 AM
远洋
一个md文件收获超400 star,这份综述分四大范式全面解析了3D场景生成
在构建通用人工智能、世界模型、具身智能等关键技术的竞赛中,一个能力正变得愈发核心 —— 高质量的 3D 场景生成。 过去三年,该领域的研究呈指数级增长,每年论文数量几乎翻倍,反映出其在多模态理解、机器人、自动驾驶乃至虚拟现实系统中的关键地位。 注:图中 2025 年的数据截至 4 月底来自南洋理工大学 S-Lab 的研究者们全面调研了该领域最前沿的研究方法,发表了综述《3D Scene Generation: A Survey》,对 300 篇代表性论文进行了系统归纳,将现有方法划分为四大类:程序化方法、基于神经网络的 3D 表示生成、图像驱动生成,以及视频驱动生成。
6/11/2025 9:19:22 AM
一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等
大幅缓解LLM偏科,只需调整SFT训练集的组成。 本来不擅长coding的Llama 3.1-8B,代码能力明显提升。 上海交大&上海AI Lab联合团队提出创新方法IDEAL,可显著提升LLM在多种不同领域上的综合性能。
6/11/2025 9:17:00 AM
消息称 Meta CEO 扎克伯格亲自组建 AI 团队,目标实现“超级智能”
据彭博社报道,Meta CEO扎克伯格亲自组建AI团队,目标实现“超级智能”。他对Meta AI进展不满,计划招50人。Meta正与OpenAI等竞争,“超级智能”目标雄心勃勃。#Meta #扎克伯格 #人工智能#
6/11/2025 9:16:43 AM
远洋
AMD MI350 系列 "CDNA 4" AI 加速器提前亮相,单模块功耗可达 1400W
MI350 系列 AI 显卡加速器采用 3nm 制程,配备 288GB HBM3E 内存,引入了对 FP6 和 FP4 的支持,在 FP16、FP8 上的算力可达前代 1.8 倍。
6/11/2025 9:16:41 AM
溯波(实习)
时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8
相邻的 KV 缓存将合并为一个。 在生成第一个字符时,KV 缓存长度为 1;生成第二个字符后,新生成的 KV 与前一个被合并,KV 缓存长度仍然保持为 1。 这种动态合并机制有效压缩了时间维度上的冗余信息。
6/11/2025 9:15:51 AM
刚刚,OpenAI正式发布o3-pro!奥特曼激动更新博客:温和的奇点
今天凌晨一点,OpenAI 宣布:OpenAI o3-pro today.前沿模型的轮流更新这一次轮到 OpenAI 了。 ,所有 Pro 订阅用户均可通过 ChatGPT 和 API 使用这款强大的推理模型。 Team 用户也可在模型选择器选择使用它。
6/11/2025 9:13:44 AM
一块4090搞定实时视频生成!Adobe黑科技来了
近年来,视频合成技术已经取得了显著突破。 其中,基于双向注意力机制的扩散 Transformer(DiT)可以生成具有复杂时序动态的逼真内容,但其非因果性设计导致无法满足实时流媒体等场景需求。 相比之下,另一类自回归(AR)模型虽然具有天然时序因果性优势,却因依赖有损向量量化技术而难以达到顶尖画质。
6/11/2025 9:12:00 AM
SOTA级视频编辑新方法:无需训练一句话编辑视频,背景保持100%
传统的视频编辑工作流,正在被AI彻底重塑。 AI的视频编辑方法总是存在一些问题:例如视频运动不连贯、编辑后的视频产生意外变化等……经过分析,这些问题的产生最终大都指向同一原因——反演-编辑范式。 因此,西湖大学AGILab提出了一种全新的无需反演和训练的视频编辑新方法:FlowDirector。
6/11/2025 9:10:00 AM
北大伯克利联手“拷问”大模型:最强Agent也才40分!新基准专治“不听话”的AI分析师
给大模型当老师,让它一步步按你的想法做数据分析,有多难? 结果是,连Claude-3.7和Gemini-2.5 Pro这样的顶尖选手,都开始“不听话”了。 在一个全新的测试基准中,它们面对多轮、不断演进的指令,最终的任务成功率最高仅有40%。
6/11/2025 9:08:00 AM
让AI自己设计芯片!中国科学院发布「启蒙」,芯片全流程自动设计
芯片设计向来是科技界的「皇冠明珠」,传统设计流程需要顶尖专家团队耗时数月甚至数年攻坚,极具挑战性。 芯片设计包含多个关键步骤,硬件设计方面包括逻辑设计、电路设计、物理设计等,基础软件方面包括操作系统内核设计、编译工具链设计、高性能库设计等。 中国科学院计算技术研究所处理器芯片全国重点实验室,联合中国科学院软件研究所,基于大模型等AI技术,推出处理器芯片和相关基础软件全自动设计系统——「启蒙」。
6/11/2025 9:07:00 AM
20人团队提前实现DeepSeek构想,AI算力变天?直击大模型算力成本痛点
如果有一种芯片,天生只为大模型而生,能否突破当前AI的算力瓶颈? 要知道,如今的芯片算力,强依赖于制程、工艺等非芯片设计因素。 这是因为,传统通用型的GPGPU计算架构在应对日益庞大的模型和复杂计算时,其硬件固有的局限性日益凸显。
6/11/2025 9:06:00 AM
英伟达港大联手革新视觉注意力机制!GSPN高分辨率生成加速超84倍
视觉注意力机制,又有新突破,来自香港大学和英伟达。 Transformer的自注意力在NLP和计算机视觉领域表现出色——它能捕捉远距离依赖,构建深度上下文。 然而,面对高分辨率图像时,传统自注意力有两个大难题:计算量巨大:O(N²) 的复杂度让处理长上下文变得非常耗时。
6/11/2025 9:06:00 AM
0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源
端侧性价比之王,清华大学和面壁智能团队开源新模型——MiniCPM 4,提供8B、0.5B两种参数规模,仅使用同级别开源模型22%的训练开销,就达到了同级别最优性能。 MiniCPM4-8B是开源首个开源的原生稀疏模型,5%的极高稀疏度加持,让长文本、深思考在端侧真正跑起来。 在MMLU、CEval、MATH500、HumanEval等基准测试中,以仅22%的训练开销,性能比肩 Qwen-3-8B,超越Gemma-3-12B。
6/11/2025 9:03:29 AM