GPU
英伟达展示台式AI超算DGX Spark新能力:能跑千亿参数模型
本周的 CES 展会上,英伟达展示了 DGX Spark 和 DGX Station 桌面 AI 超级计算机的能力。 这些系统号称「全球最小 AI 超算」,基于 Grace Blackwell 架构算力,拥有 128G 统一内存和千万亿次级 AI 性能,为开发者提供了在本地开发并轻松扩展到云端的全新能力。 其中,DGX Spark 可以运行 1000 亿参数的大模型,DGX Station 可运行 1 万亿参数模型。
计算所严明玉团队新作: Attention 并非永远是瓶颈,多 GPU 并不一定更快
随着大语言模型逐渐走向真实应用,推理阶段的性能问题正在成为制约落地的关键因素。 模型规模不断增大、上下文持续拉长,再加上 RAG、MoE 等新用法的引入,使得延迟、吞吐和能耗不再只是“调一调参数”的问题,而是直接影响系统架构和算力成本的核心挑战。 围绕这些问题,来自中国科学院计算所的严明玉团队,联合中国电信云计算研究院、浙江实验室和北京大学的研究者,在论文《A Systematic Characterization of LLM Inference on GPUs》中,对大语言模型在 GPU 上的推理行为进行了系统研究。
摩尔线程的野心,不藏了
上市后的仅15天, 摩尔线程,便将首个大动作直接指向了生态的核心——开发者。 在这次首届、也是国内首个聚焦全功能GPU的开发者大会中,围绕着MUSA这个关键词,新品可谓是目接不暇:一个全新GPU架构:花港,密度提升50%,效能提升10倍。 三款新芯片:华山、庐山、长江,分别聚焦AI训推一体、图形渲染和智能SoC。
摩尔线程新一代GPU架构10天后发布
允中 发自 凹非寺. 量子位 | 公众号 QbitAI2025年12月19日至20日,摩尔线程首届MUSA开发者大会(MUSA Developer Conference,简称MDC 2025)将在北京中关村国际创新中心拉开帷幕。 作为国内首个聚焦全功能GPU的开发者盛会,大会以“创造、链接、汇聚(Create, Connect, Converge)”为核心理念,直面技术自立自强与产业升级的时代命题,旨在汇聚全球AI与GPU领域开发者、技术领袖、产业先锋及行业数智化转型实践者,共同探索国产算力的突破路径,擘画自主计算生态的崭新蓝图。
腾讯回应 AI 支出低于预期:GPU充足 足以满足内部需求
近日,腾讯发布了2023年第三季度的财报,虽然整体营收和利润大幅增长,但却透露出资本开支低于市场预期的消息,引发外界对其 AI 项目的关注。 腾讯总裁刘炽平在财报发布后的电话会议上对此作出了详细解释。 刘炽平指出,尽管资本开支少于预期,但腾讯在 GPU(图形处理单元)的储备方面没有问题。
微软构建跨洲数据中心超级集群,助力大规模 AI 模型训练
近日,微软宣布正在建设一系列跨越洲际的数据中心超级集群,以应对未来人工智能模型的训练需求。 这些新设施将连接多个数据中心,通过高速网络实现数据的高效传输,目标是支持高达数百万亿个参数的 AI 模型训练。 10月,微软在威斯康星州的 Mount Pleasant 数据中心校园启动了首个节点,连接到位于乔治亚州亚特兰大的设施。
亚马逊与OpenAI达成380亿美元协议
亚马逊与 OpenAI 日前签署了一份高达 380 亿美元的合作协议,标志着两大科技巨头在 AI 算力领域的深度合作。 这不仅让全球对AI的未来发展投以更炙热的目光,更在资本市场掀起了滔天巨浪。 这一消息如同一剂强效兴奋剂,瞬间引爆了华尔街。
英伟达市值突破5万亿美元,推动 AI 行业蓬勃发展
英伟达(Nvidia)近日成为全球最有价值的公司,其市值突破了5万亿美元。 这一里程碑不仅标志着英伟达在市场中的主导地位,更反映了整个人工智能(AI)行业的蓬勃发展。 英伟达的图形处理单元(GPU)在过去三年里驱动了 AI 技术的快速增长,其创始人兼分析师 R "Ray" Wang 表示:“AI 的开始和结束都与英伟达息息相关。
英伟达,全球首个5万亿美元公司诞生!「GPU帝国」超日本德国GDP
今夜,英伟达再次创造历史! 受GTC大会的影响,英伟达股价上涨4.15%,成为首家市值突破5万亿美元的公司! 这是一个前所未有的里程碑,不仅是英伟达,不仅是GPU芯片,更是AI时代的里程碑。
阿里云GPU用量削减82%的技术突破:Aegaeon计算池化方案深度解析
1192个GPU削减到213个,82%的用量削减——当我看到阿里云Aegaeon系统在三个月测试中的这个数据时,第一反应是这怎么可能? 要知道,这可是在服务数十个720亿参数大模型的情况下实现的。 按照现在H20 GPU的价格,这意味着硬件成本直接砍掉了80%以上。
DeepSeek新模型被硅谷夸疯了!用二维视觉压缩一维文字,单GPU能跑,“谷歌核心机密被开源”
DeepSeek最新开源的模型,已经被硅谷夸疯了! 因为实在太DeepSeek了。 3B规模、指数级效能变革、大道至简,甚至被认为把谷歌Gemini严防死守的商业机密开源了。
Meta用40万个GPU小时做了一个实验,只为弄清强化学习Scaling Law
在 LLM 领域,扩大强化学习算力规模正在成为一个关键的研究范式。 但要想弄清楚 RL 的 Scaling Law 具体是什么样子,还有几个关键问题悬而未决:如何 scale? scale 什么是有价值的?
实锤了:GPU越多,论文接收率越高、引用越多
在过去三年里,AI 领域取得了显著进步,这一飞跃主要得益于基础模型的发展。 这些模型在大规模多模态数据上进行训练,并在公开发布后取得了巨大成功。 然而,基础模型的研究需要大量的数据、算力和人力资源。
前董事长罕见曝OpenAI的“痛苦与困境”:我们正走向计算稀缺世界!内部GPU分配如玩俄罗斯方块,Sora2实为被削弱的原始模型
编辑 | 听雨“我们正走向一个计算极度稀缺的世界,而能源将是下一个巨大的瓶颈。 ”“未来,所有的授权都会变成‘角色扮演’授权。 ”“我们希望能建立可以自主思考一年、甚至十年的AI。
刚刚,全球首个GB300巨兽救场!一年烧光70亿,OpenAI内斗GPU惨烈
过去一年,OpenAI在算力上斥资70亿美元。 其中,大模型研发占了最大头——50亿美元,而推理计算仅用了20亿美元。 图片可见,LLM训练正吞噬无尽的算力,这也是OpenAI最近一直在大举扩展超算建设与合作的重要原因。
如何在 LLM 推理中战胜不确定性
最近thinkingmachines的一篇博文在内外网引起了无数的关注和转载,这篇文章的核心内容先是解释了一下为什么LLM推理会有不确定性,随后文章还给出了具体的解决方案。 在详细介绍文章的内容之前,我们先来说一下thinkingmachines这家公司。 它是由前OpenAI首席技术官Mira Murati与多位前OpenAI高管联合创立。
一年4次迭代,狂堆GPU成真!微软AI冷液灌芯,散热暴涨3倍
大家一直在担心:AI越来越烧钱,ChatGPT的订阅费会不会年年涨? 更让人头疼的,是用AI时越来越容易卡顿、掉链子。 罪魁祸首,其实是芯片过热。
英伟达重金收购 AI 初创公司 Enfabrica CEO 及核心团队
近日,英伟达宣布了一项重大的收购交易,以超过9亿美元的现金和股票购买了 AI 硬件初创公司 Enfabrica 的首席执行官 Rochan Sankar 及其核心团队,同时获得了该公司的技术许可。 这一交易的完成标志着英伟达在 AI 领域的进一步布局,特别是在提升其 GPU 连接能力方面。 图源备注:图片由AI生成,图片授权服务商MidjourneyEnfabrica 成立于2019年,专注于开发能够将超过10万块 GPU 高效连接的技术,这一核心技术被认为可以帮助英伟达构建更为高效的一体化系统,使得大规模的计算集群能够像单台计算机一样运行。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI新词
AI绘画
大模型
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
英伟达
Gemini
智能体
技术
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
AI for Science
代码
腾讯
苹果
算法
Agent
Claude
芯片
具身智能
Stable Diffusion
xAI
蛋白质
人形机器人
开发者
生成式
神经网络
机器学习
AI视频
3D
字节跳动
大语言模型
RAG
Sora
百度
研究
GPU
生成
华为
工具
AGI
计算
生成式AI
AI设计
大型语言模型
搜索
亚马逊
AI模型
视频生成
特斯拉
DeepMind
场景
Copilot
深度学习
Transformer
架构
MCP
编程
视觉