理论
CVPR满分论文:一块2080Ti搞定数据蒸馏,GPU占用仅2G,来自上交大“最年轻博导”课题组
只要一块6年前的2080Ti,就能做大模型数据蒸馏? 来自上交大EPIC实验室等机构的一项最新研究,提出了一种新的数据集蒸馏方法——NFCM。 与前SOTA相比,新方法的显存占用只有1/300,并且速度提升了20倍,相关论文获得了CVPR满分。
3/3/2025 12:13:15 PM
量子位
检索了15460项研究,AI与机械流行病学建模相结合:机遇和挑战的范围界定回顾
编辑丨toileter将嵌入机械模型中的先前流行病学知识与 AI 的数据挖掘功能相结合,为流行病学建模提供了变革性的潜力。 虽然 AI 与传统机械方法的融合正在迅速发展,但工作仍然分散。 目前,需要更好地纳入现实的决策考虑,扩大对不同数据集的探索,以及进一步研究生物和社会行为机制。
3/3/2025 12:01:00 PM
ScienceAI
速度提升3200倍,准确率提高40%!深度神经网络+纠错码革新DNA存储技术
编辑 | 2049在全球数据量呈指数级增长的今天,传统存储技术的扩展速度已难以跟上。 脱氧核糖核酸(DNA)分子作为一种信息存储介质,以其卓越的信息密度、增强的数据耐久性和几乎可忽略的维护能耗,正逐渐成为解决存储危机的关键方案。 然而,DNA 存储技术面临可扩展性和准确性之间的权衡困境,成为商业化落地的主要障碍。
3/3/2025 11:59:00 AM
ScienceAI
RAG(一)RAG开山之作:知识密集型NLP任务的“新范式”
在AI应用爆发的时代,RAG(Retrieval-Augmented Generation,检索增强生成)技术正逐渐成为AI 2.0时代的“杀手级”应用。 它通过将信息检索与文本生成相结合,突破了传统生成模型在知识覆盖和回答准确性上的瓶颈。 不仅提升了模型的性能和可靠性,还降低了成本,增强了可解释性。
3/3/2025 11:41:11 AM
Glodma
AI学术算命?Gemini 2.0预测谷歌AI大佬职业生涯,准到离谱!
如果让人工智能来点评博士论文,还顺手预测一下作者将来的职业发展。 会是什么样子? 最近,谷歌首席科学家、Gemini负责人Jeff Dean就玩了这么一出,他把自己的博士论文交给了最新的Gemini 2.0。
3/3/2025 11:21:40 AM
新智元
2025年的五大AI趋势:智能体、开源和多模型
随着AI技术的飞速发展,2025年的AI领域将迎来前所未有的变革。 从开源AI的崛起,到多模态AI的普及,再到本地AI的蓬勃发展,以及AI成本的显著降低和智能体的广泛应用,这五大趋势将深刻影响企业和个人的未来发展。 2025年,AI领域不再仅仅局限于大型语言模型(LLM),而是聚焦于更智能、更廉价、更专业和更本地的AI解决方案,这些方案能够处理多种数据类型,并实现自主行动。
3/3/2025 11:16:18 AM
Sol Rashidi
PyTorch内存优化的十种策略总结:在有限资源环境下高效训练模型
在大规模深度学习模型训练过程中,GPU内存容量往往成为制约因素,尤其是在训练大型语言模型(LLM)和视觉Transformer等现代架构时。 由于大多数研究者和开发者无法使用配备海量GPU内存的高端计算集群,因此掌握有效的内存优化技术变得尤为关键。 本文将系统性地介绍多种内存优化策略,这些技术组合应用可使模型训练的内存消耗降低近20倍,同时不会损害模型性能和预测准确率。
3/3/2025 10:42:50 AM
佚名
机器学习特征筛选:向后淘汰法原理与Python实现
向后淘汰法(Backward Elimination)是机器学习领域中一种重要的特征选择技术,其核心思想是通过系统性地移除对模型贡献较小的特征,以提高模型性能和可解释性。 该方法从完整特征集出发,逐步剔除不重要的特征,最终保留对预测结果最具影响力的变量子集。 向后淘汰法的工作原理向后淘汰法遵循一个迭代式的特征筛选过程,具体步骤如下:初始模型构建:首先使用数据集中的全部特征构建模型。
3/3/2025 10:28:38 AM
Ravindu Ruminates
苹果AI困境:生死赌局,冲不过就出局!
近日,外媒对苹果在人工智能领域的表现进行了深度剖析,认为苹果正面临一场生死攸关的AI赌局。 如果无法在人工智能领域取得突破,苹果可能会在未来的市场竞争中出局。 苹果AI短板暴露苹果在AI领域的短板愈发明显。
3/3/2025 10:26:33 AM
小菲
LLM表现出类似人类的“认知”下降迹象
GenAI问世不到两年,就在各个行业带来了众多创新,包括科学突破和前所未有的自动化和数据处理效率。 大型语言模型(LLM)经常被比作人类智能。 一些人工智能系统甚至在某些任务中表现优于人类。
3/3/2025 10:18:46 AM
AI情报室
大型视觉模型何时会有ChatGPT时刻?
2022年11月推出的ChatGPT是自然语言处理(NLP)的一个分水岭,因为它展示了转换器(Transformer)架构在理解和生成文本数据方面的惊人有效性,也被称为人工智能的ChatGPT时刻。 现在,随着预训练大型视觉模型(LVM)的兴起,我们在计算机视觉领域看到了类似的情况。 但是,这些模型何时才能将视觉数据广泛应用呢?
3/3/2025 10:13:09 AM
AI情报室
哈佛研究:生成式AI让美国工人效率飙升33%
一项由圣路易斯联储、范德比尔特大学和哈佛大学联合开展的研究表明,生成式人工智能(AI)在美国工作场所的应用显著提高了工人的生产率。 研究结果显示,使用生成式AI后,美国工人平均每小时的生产率提高了33%。 该研究基于首次具有全国代表性的生成式AI使用调查,通过分析工人使用该技术的程度和频率,衡量其对工作效率的具体影响。
3/3/2025 10:04:49 AM
小菲
小白也能轻松理解的大模型入门锦囊!
一、何为大模型? 大模型,英文名叫Large Model,也被称为基础模型(Foundation Model)。 我们通常说的大模型,主要指的是其中最常用的一类——大语言模型(Large Language Model,简称LLM)。
3/3/2025 10:00:00 AM
小喵学AI
LeCun世界模型再近一步!Meta研究证明:AI可无先验理解直觉物理
对物理的直观理解是人类认知的基础:期望物体的行为,具有可预测性,也就是说,物体不会突然出现或消失,穿过障碍物,或随意改变形状或颜色。 这种对物理的直观理解,还在更多物种中得到证实,包括猴子、鲸鱼、乌鸦等。 相关研究人员猜测:人类天生或婴幼儿时期就具备一套进化形成的、古老的系统,专门用于表示和推理世界的基本属性,比如物体、空间、数字、几何形状等。
3/3/2025 9:22:00 AM
新智元
小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控
「下一个token预测」(next token prediction,NTP)是大语言模型(LLMs)不断取得突破的核心技术。 但这种依赖tokenization的方法,导致LLM「严重偏科」。 比如,Karpathy发现一个表情包相当于53个token!关注AI的可能也知道GPT-4o不会数字母,不知道Strawberray中有几个字母「r」。
3/3/2025 9:16:00 AM
新智元
官方详解 DeepSeek-V3 / R1 推理系统:理论利润率达 545%
3 月 1 日消息,DeepSeek 官方今日在知乎发布《DeepSeek-V3 / R1 . 推理系统概览》一文,详细介绍如何使用大规模跨节点专家并行(Expert Parallelism / EP)来增大 batch . size,如何隐藏传输的耗时,如何进行负载均衡。
3/3/2025 9:00:00 AM
清源
字节视频生成新突破!Phantom搞定多人物/主体一致性
视频生成模型当中已经不缺强者了,但保持多主体一致性依然是一项重大挑战。 字节智能创作团队专门针对这个问题,推出了主体一致性视频生成模型Phantom(“幻影”)。 Phantom在主体一致性保持方面取得了突破性进展,不仅支持多主体,还能同时保持主体的完整性。
3/3/2025 8:32:00 AM
量子位
医疗保健领域AI数据治理的新内容和变化
GenAI正在帮助医疗机构提高生产力和推进临床护理,但其可靠性完全取决于训练所用的数据。 这使得医疗数据治理变得愈发重要。 AWS和《哈佛商业评论》的一项新调查显示,多个行业的首席数据官都担心他们的数据资产无法胜任这项任务。
3/3/2025 8:30:00 AM
Erin Laviola
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
数据
大模型
Midjourney
开源
智能
Meta
用户
微软
GPT
学习
技术
图像
Gemini
AI新词
智能体
马斯克
AI创作
Anthropic
英伟达
论文
训练
代码
算法
LLM
Stable Diffusion
芯片
腾讯
苹果
蛋白质
Claude
开发者
AI for Science
Agent
生成式
神经网络
机器学习
3D
xAI
研究
人形机器人
生成
AI视频
百度
计算
工具
Sora
GPU
华为
大语言模型
RAG
AI设计
字节跳动
具身智能
搜索
大型语言模型
场景
AGI
深度学习
视频生成
预测
视觉
伟达
架构
Transformer
神器推荐
编程
DeepMind
亚马逊
特斯拉
AI模型