AI在线 AI在线

算法

做AI方向的设计,先了解这8个基础技术要点!

AI 除了作为工具增进我们的设计效率和质量外,也成为了许多产品设计增强自己竞争力,许多新解决方案应运而生的一种机会。 作为设计师,我们也需要根据自己负责的产品范围了解一些基础的技术点,才能更好的设计出能够被用户理解的好产品,所以我会分享一些 AI 产品中常见的技术知识点。 更多基础干货:.
6/10/2025 12:19:30 AM
林影落

谷歌 DeepMind 负责人:AI 变革邮箱管理、对抗内容算法推荐,通用人工智能未来 5~10 年实现

在 SXSW 伦敦站活动中,谷歌 DeepMind 首席执行官戴密斯・哈萨比斯(Demis Hassabis)表示,人工智能(AI)在迅猛发展下,其引发的巨大变革,不亚于互联网诞生或工业革命。
6/4/2025 8:48:37 AM
故渊

华为中科大联创大模型低比特量化算法,1‰数据实现昇腾无损压缩7倍

大模型,如今堪称AI界的「吞金巨兽」。 从写诗到解题,从对话到编程,它们几乎无所不能,但动辄千亿甚至万亿参数的规模,让部署成本高得离谱。 以FP16精度部署的DeepSeek-R1 671B为例,推理时大概需要1342GB的显存,如果是32GB 5090显卡,需要整整42张!
5/26/2025 9:41:26 AM

50年僵局打破!MIT最新证明:对于算法少量内存胜过大量时间

相信大家都曾有过这样的经历:运行某个程序时,电脑突然卡住,轻则恢复文件,重则重新创建;或者手机频繁弹出「内存不足」的警告,让我们不得不忍痛删除珍贵的照片或应用。 这些日常的烦恼,其实都指向了计算世界中两个至关重要的基本要素:时间和空间。  时间和空间(也称为内存)是计算中最基本的两种资源:任何算法在执行时都需要一定的时间,并在运行过程中占用一定的空间以存储数据。
5/26/2025 9:09:00 AM
机器之心

DeepSeek用的GRPO有那么特别吗?万字长文分析四篇精品论文

随着 DeepSeek R1 的持续爆火,推理和强化学习已经成为 AI 领域的热门词汇。 短短几个月的时间,我们已经见证了太多的推理大模型,AI 更新迭代速度似乎已经快进到了以天为单位。 但在众多研究成果中找到值得关注的内容并不容易。
5/26/2025 8:48:00 AM

2030年前必须实现AGI!谷歌祖师爷现场「催更」DeepMind CEO

谷歌的I/O大会证明蓝星的科技正统还在谷歌。 除了发布Gemini 2.5最新版本继续遥遥领先OpenAI的奥特曼以外,还掏出两幅眼镜来拳打苹果,脚踢Meta。 会后还把谷歌的「开山老祖」谢尔盖·布林(Sergey Brin)请了出来,逼Demis Hassabis赶紧在2030年前(也就5年内了)实现AGI。
5/23/2025 9:08:00 AM

手机流畅处理128K长文本,vivo端侧新算法突破内存限制 | ACL 2025

在端侧设备上处理长文本常常面临计算和内存瓶颈。 vivo AI研究院推出的EdgeInfinite算法专为端侧设备设计,让设备处理超长文本时更加高效流畅,该方法能够在不到10GB GPU内存的设备上处理长达128K tokens的输入。 该研究成果已中稿ACL 2025。
5/20/2025 3:14:39 PM

震撼全网,AlphaEvolve矩阵乘法突破被证明为真!开发者用代码证实

就在刚刚,有人用Claude写代码证实——谷歌DeepMind的AlphaEvolve求解矩阵乘法的突破,100%正确! 即使已经过去好几天,AI圈依然有许多人沉浸在这个AI的余震中。 在时隔半个世纪(56年)后,AlphaEvolve将4×4的复数矩阵计算次数,从1969年Strassen的49次减少到了48次。
5/20/2025 9:07:00 AM

矩阵乘法可以算得更快了!港中文10页论文证明:能源、时间均可节省

天下苦大模型矩阵乘法久矣。 毕竟不论是训练还是推理过程,矩阵乘法作为最主要的计算操作之一,往往都需要消耗大量的算力。 那么就没有一种更“快、好、省”的方法来搞这事儿吗?
5/19/2025 9:05:00 AM

微软老员工48岁生日被裁,妻子发帖怒斥算法裁人!全球大血洗6000人

微软6000人血色大裁员,余波还在震荡。 从消息曝出到今天,三天内,这6000个人已经从单纯的数字,浮现成了一个个有血有肉的人物故事,不断冲击着我们的神经。 一位妻子沉痛地发帖说:我的丈夫,一位25年的微软老员工,因为被算法选中,在48岁当天被裁掉了。
5/16/2025 3:46:10 PM

谷歌AlphaEvolve发布!Gemini自进化AI破解数学难题,优化芯片与数据中心,训练速度飙升32.5%!

谷歌DeepMind发布了一项颠覆性研究成果——AlphaEvolve,一款结合Gemini大语言模型与进化算法的AI编码代理。 这款系统不仅能自动发现和优化复杂算法,还在谷歌的数据中心、芯片设计和AI训练中展现了惊人实力,甚至助力Gemini模型自我优化,堪称AI领域的“左脚踩右脚”式突破。 AIbase深入剖析这一技术里程碑,揭示其核心原理与广泛影响。
5/15/2025 2:00:45 PM
AI在线

谷歌 DeepMind 推出 AlphaEvolve:AI 首次打破数学56年纪录,优化自身训练系统

谷歌 DeepMind 今日发布 AlphaEvolve,一款具备自我进化能力的人工智能代理,它不仅能自主发明复杂的计算机算法,还已广泛应用于谷歌的数据中心、芯片设计和 AI 模型训练中,取得了显著成果。 AlphaEvolve 将 Gemini 大语言模型与进化式优化方法结合,自动测试、改进并提升整个代码库,而不仅限于单一函数。 该系统已在内部悄然运行一年多,提升了计算资源调度效率、加速了模型训练,并在数学研究上实现了突破。
5/15/2025 11:01:54 AM
AI在线

重磅!谷歌DeepMind发布AlphaEvolve:AI界的“算法设计进化大师”诞生

谷歌DeepMind刚刚又往前拱了一大步,宣布推出 AlphaEvolve智能体 ,目标直指更上游,用于通用算法的设计发现和优化简单说,AlphaEvolve就像个AI界的“算法育种大师”。 它把自家Gemini大模型(Gemini Flash负责广撒网,洞察力强的Gemini Pro负责深挖)和一套“自动化考官”(负责验证算法靠不靠谱、效率高不高)结合起来,再套上一个“进化论”的框架,让好算法能一代更比一代强AlphaEvolve工作流程:工程师设定框架,AI通过“提示采样器”给LLM喂招,LLM出新招(程序),“考官”打分,好招进“兵器谱”,并用来启发下一轮出招。 去年DeepMind就秀过肌肉,证明LLM能生成代码函数来搞定科学问题。
5/15/2025 9:17:00 AM

破解300年数学难题,智能体大突破!谷歌发布超强AI Agent

今天凌晨,谷歌Deepmind在官网发布了,用于设计高级算法的编程AI Agent——AlphaEvolve。 AlphaEvolve与谷歌的大模型Gemini实现深度集成,用于自动评估通用算法的发现与优化,可以帮助开发人员快速设计出最好、高效的矩阵算法。 简单来说,大模型擅长生成各种想法和算法,但是没人知道这些到底行不行,而AlphaEvolve相当于“质检员”,能够按照特定标准来衡量这些想法是否可行。
5/15/2025 9:08:00 AM

RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

多模态奖励模型(MRMs)在提升多模态大语言模型(MLLMs)的表现中起着至关重要的作用,在训练阶段可以提供稳定的 reward,评估阶段可以选择更好的 sample 结果,甚至单独作为 evaluator。 尽管近期强化学习(RL)在传统视觉任务和多模态推理任务中取得了显著进展,但其在奖励建模中的应用仍然受到挑战,尤其是如何通过强化学习对奖励模型引入长期推理能力。 来自快手、中科院、清华、南大的研究团队发现,直接把现有的 RL 算法(比如 Reinforce )用到训练 MRM 上,会遇到很多问题,比如训练过程很不稳定,甚至直接崩掉。
5/12/2025 2:23:42 PM

OpenAI 姚顺雨:“算法为王”终结,欢迎来到“产品思维”时代

回顾过去几十年,AI的发展几乎就是一部“顶级模型与新方法”迭代史。 从DeepBlue击败象棋世界冠军、AlphaGo征服围棋、GPT-4刷爆各类考试榜单,到o1、R1等新一代模型横扫数学、编程、写作、操作等任务,每一次历史性突破的背后,都是训练方法、模型架构的根本性创新。 这时候的游戏规则很简单:谁能发明更强的训练方法、模型架构,就能称霸榜单;谁能在ImageNet、GLUE、MMLU等benchmark上显著提升,就能写进教材、赢得引用。
5/6/2025 12:00:55 AM

ICLR 2025 | 无需训练加速20倍,清华朱军组提出用于图像翻译的扩散桥模型推理算法DBIM

论文有两位共同一作。 郑凯文为清华大学计算机系三年级博士生,何冠德为德州大学奥斯汀分校(UT Austin)一年级博士生。 扩散模型(Diffusion Models)近年来在生成任务上取得了突破性的进展,不仅在图像生成、视频合成、语音合成等领域都实现了卓越表现,推动了文本到图像、视频生成的技术革新。
4/28/2025 9:00:00 AM
机器之心

告别“AI失忆症”!新型SD-LoRA算法实现终身学习|ICLR 2025

彻底摆脱传统方法对旧数据存储的依赖! 哈佛团队联手香港城大、西安交大最新发布的SD-LoRA技术,通过固定已学习任务的方向参数,仅调整幅度权重,完全避免了历史数据的存储需求。 能够在减少50%以上参数存储的同时保持最高准确率,并且在不增加推理开销的前提下显著缓解了灾难性遗忘问题。
4/24/2025 9:30:00 AM
量子位