AI在线 AI在线

理论

CVPR满分论文:一块2080Ti搞定数据蒸馏,GPU占用仅2G,来自上交大“最年轻博导”课题组

只要一块6年前的2080Ti,就能做大模型数据蒸馏? 来自上交大EPIC实验室等机构的一项最新研究,提出了一种新的数据集蒸馏方法——NFCM。 与前SOTA相比,新方法的显存占用只有1/300,并且速度提升了20倍,相关论文获得了CVPR满分。
3/3/2025 12:13:15 PM
量子位

检索了15460项研究,AI与机械流行病学建模相结合:机遇和挑战的范围界定回顾

编辑丨toileter将嵌入机械模型中的先前流行病学知识与 AI 的数据挖掘功能相结合,为流行病学建模提供了变革性的潜力。 虽然 AI 与传统机械方法的融合正在迅速发展,但工作仍然分散。 目前,需要更好地纳入现实的决策考虑,扩大对不同数据集的探索,以及进一步研究生物和社会行为机制。
3/3/2025 12:01:00 PM
ScienceAI

速度提升3200倍,准确率提高40%!深度神经网络+纠错码革新DNA存储技术

编辑 | 2049在全球数据量呈指数级增长的今天,传统存储技术的扩展速度已难以跟上。 脱氧核糖核酸(DNA)分子作为一种信息存储介质,以其卓越的信息密度、增强的数据耐久性和几乎可忽略的维护能耗,正逐渐成为解决存储危机的关键方案。 然而,DNA 存储技术面临可扩展性和准确性之间的权衡困境,成为商业化落地的主要障碍。
3/3/2025 11:59:00 AM
ScienceAI

RAG(一)RAG开山之作:知识密集型NLP任务的“新范式”

在AI应用爆发的时代,RAG(Retrieval-Augmented Generation,检索增强生成)技术正逐渐成为AI 2.0时代的“杀手级”应用。 它通过将信息检索与文本生成相结合,突破了传统生成模型在知识覆盖和回答准确性上的瓶颈。 不仅提升了模型的性能和可靠性,还降低了成本,增强了可解释性。
3/3/2025 11:41:11 AM
Glodma

AI学术算命?Gemini 2.0预测谷歌AI大佬职业生涯,准到离谱!

如果让人工智能来点评博士论文,还顺手预测一下作者将来的职业发展。 会是什么样子? 最近,谷歌首席科学家、Gemini负责人Jeff Dean就玩了这么一出,他把自己的博士论文交给了最新的Gemini 2.0。
3/3/2025 11:21:40 AM
新智元

2025年的五大AI趋势:智能体、开源和多模型

随着AI技术的飞速发展,2025年的AI领域将迎来前所未有的变革。 从开源AI的崛起,到多模态AI的普及,再到本地AI的蓬勃发展,以及AI成本的显著降低和智能体的广泛应用,这五大趋势将深刻影响企业和个人的未来发展。 2025年,AI领域不再仅仅局限于大型语言模型(LLM),而是聚焦于更智能、更廉价、更专业和更本地的AI解决方案,这些方案能够处理多种数据类型,并实现自主行动。
3/3/2025 11:16:18 AM
Sol Rashidi

PyTorch内存优化的十种策略总结:在有限资源环境下高效训练模型

在大规模深度学习模型训练过程中,GPU内存容量往往成为制约因素,尤其是在训练大型语言模型(LLM)和视觉Transformer等现代架构时。 由于大多数研究者和开发者无法使用配备海量GPU内存的高端计算集群,因此掌握有效的内存优化技术变得尤为关键。 本文将系统性地介绍多种内存优化策略,这些技术组合应用可使模型训练的内存消耗降低近20倍,同时不会损害模型性能和预测准确率。
3/3/2025 10:42:50 AM
佚名

机器学习特征筛选:向后淘汰法原理与Python实现

向后淘汰法(Backward Elimination)是机器学习领域中一种重要的特征选择技术,其核心思想是通过系统性地移除对模型贡献较小的特征,以提高模型性能和可解释性。 该方法从完整特征集出发,逐步剔除不重要的特征,最终保留对预测结果最具影响力的变量子集。 向后淘汰法的工作原理向后淘汰法遵循一个迭代式的特征筛选过程,具体步骤如下:初始模型构建:首先使用数据集中的全部特征构建模型。
3/3/2025 10:28:38 AM
Ravindu Ruminates

苹果AI困境:生死赌局,冲不过就出局!

近日,外媒对苹果在人工智能领域的表现进行了深度剖析,认为苹果正面临一场生死攸关的AI赌局。 如果无法在人工智能领域取得突破,苹果可能会在未来的市场竞争中出局。 苹果AI短板暴露苹果在AI领域的短板愈发明显。
3/3/2025 10:26:33 AM
小菲

LLM表现出类似人类的“认知”下降迹象

GenAI问世不到两年,就在各个行业带来了众多创新,包括科学突破和前所未有的自动化和数据处理效率。 大型语言模型(LLM)经常被比作人类智能。 一些人工智能系统甚至在某些任务中表现优于人类。
3/3/2025 10:18:46 AM
AI情报室

大型视觉模型何时会有ChatGPT时刻?

2022年11月推出的ChatGPT是自然语言处理(NLP)的一个分水岭,因为它展示了转换器(Transformer)架构在理解和生成文本数据方面的惊人有效性,也被称为人工智能的ChatGPT时刻。 现在,随着预训练大型视觉模型(LVM)的兴起,我们在计算机视觉领域看到了类似的情况。 但是,这些模型何时才能将视觉数据广泛应用呢?
3/3/2025 10:13:09 AM
AI情报室

哈佛研究:生成式AI让美国工人效率飙升33%

一项由圣路易斯联储、范德比尔特大学和哈佛大学联合开展的研究表明,生成式人工智能(AI)在美国工作场所的应用显著提高了工人的生产率。 研究结果显示,使用生成式AI后,美国工人平均每小时的生产率提高了33%。 该研究基于首次具有全国代表性的生成式AI使用调查,通过分析工人使用该技术的程度和频率,衡量其对工作效率的具体影响。
3/3/2025 10:04:49 AM
小菲

小白也能轻松理解的大模型入门锦囊!

一、何为大模型? 大模型,英文名叫Large Model,也被称为基础模型(Foundation Model)。 我们通常说的大模型,主要指的是其中最常用的一类——大语言模型(Large Language Model,简称LLM)。
3/3/2025 10:00:00 AM
小喵学AI

LeCun世界模型再近一步!Meta研究证明:AI可无先验理解直觉物理

对物理的直观理解是人类认知的基础:期望物体的行为,具有可预测性,也就是说,物体不会突然出现或消失,穿过障碍物,或随意改变形状或颜色。 这种对物理的直观理解,还在更多物种中得到证实,包括猴子、鲸鱼、乌鸦等。 相关研究人员猜测:人类天生或婴幼儿时期就具备一套进化形成的、古老的系统,专门用于表示和推理世界的基本属性,比如物体、空间、数字、几何形状等。
3/3/2025 9:22:00 AM
新智元

小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

「下一个token预测」(next token prediction,NTP)是大语言模型(LLMs)不断取得突破的核心技术。 但这种依赖tokenization的方法,导致LLM「严重偏科」。 比如,Karpathy发现一个表情包相当于53个token!关注AI的可能也知道GPT-4o不会数字母,不知道Strawberray中有几个字母「r」。
3/3/2025 9:16:00 AM
新智元

官方详解 DeepSeek-V3 / R1 推理系统:理论利润率达 545%

3 月 1 日消息,DeepSeek 官方今日在知乎发布《DeepSeek-V3 / R1 . 推理系统概览》一文,详细介绍如何使用大规模跨节点专家并行(Expert Parallelism / EP)来增大 batch . size,如何隐藏传输的耗时,如何进行负载均衡。
3/3/2025 9:00:00 AM
清源

字节视频生成新突破!Phantom搞定多人物/主体一致性

视频生成模型当中已经不缺强者了,但保持多主体一致性依然是一项重大挑战。 字节智能创作团队专门针对这个问题,推出了主体一致性视频生成模型Phantom(“幻影”)。 Phantom在主体一致性保持方面取得了突破性进展,不仅支持多主体,还能同时保持主体的完整性。
3/3/2025 8:32:00 AM
量子位

医疗保健领域AI数据治理的新内容和变化

GenAI正在帮助医疗机构提高生产力和推进临床护理,但其可靠性完全取决于训练所用的数据。 这使得医疗数据治理变得愈发重要。 AWS和《哈佛商业评论》的一项新调查显示,多个行业的首席数据官都担心他们的数据资产无法胜任这项任务。
3/3/2025 8:30:00 AM
Erin Laviola