言语模型参数越多越好?DeepMind用700亿打败自家2800亿,训练优化出「小」模型

给定固定的 FLOPs 估算,该当如何权衡模型巨细和训练 token 的数目?DeepMind 得出了与先前不同的结论。

最近一系列庞大言语模型 (LLM) 正在崛起,其中最大的言语模型已经拥有超过 5000 亿个参数。这些庞大自回归 transformer 通过使用各种评估协议(例如零样本、少样本和微调),在许多义务中表现出令人印象深刻的功能。然而训练庞大言语模型需要消耗巨大的较量争论和能源,并且这种消耗随着模型的添加而添加。在实践中,研究者事先分配的训练较量争论估算通常是预先知道的:有多少加速器可用以及我们想要使用它们多长时间。通常这些大模型只训练一次是可接受的,因此准确估计给定较量争论估算的最佳模型超参数至关重要。Kaplan 等人研究 (2020) 表明,自回归言语模型 (LM) 中的参数数目与其功能之间存在幂律关系。结果是该领域一直在训练越来越大的模型,期望功能得到改善。Kaplan 等人(2020) 得出的一个值得注意的结论是,不该当将庞大模型训练到其可能的最低丧失,以获得较量争论的最佳化。来自 DeepMind 的研究者得出了相同的结论,但他们估计庞大模型可以训练的 token 数该当比作者推荐的更多。具体来说,假设较量争论估算添加 10 倍,其他研究者建议模型的巨细该当添加 5.5 倍,而训练 token 的数目该当只添加 1.8 倍。相反,DeepMind 发现模型巨细和训练 token 的数目该当以相等的比例扩展。图片论文地址:https://arxiv.org/pdf/2203.15556.pdf继 Kaplan 等人和 GPT-3 的训练设置研究之后,近期庞大模型的训练 token 大约为 3000 亿个(表 1),这与添加算力时,主要采用添加模型巨细结论一致。图片在这项工作中,DeepMind 重新审视了这个问题:给定固定的 FLOPs 估算,该当如何权衡模型巨细和训练 token 的数目?为了回答这个问题,DeepMind 将最终的预训练丧失 𝐿(𝑁, 𝐷) 建模为模型参数数目 𝑁 和训练 token 数目 𝐷 的函数。由于较量争论估算 𝐶 是所见训练 token 和模型参数数目的确定性函数 FLOPs(𝑁, 𝐷),因此可以在约束 FLOPs(𝑁, 𝐷) = 𝐶 下最小化𝐿:图片DeepMind 根据 400 多个模型的丧失估计了这些函数,参数范围从 70M 到 16B 以上,并在 5B 到 400B 多个 token 上进行训练——每个模型配置都针对几个不同的训练范围进行训练。结果表明 DeepMind 法子得出的结果与 Kaplan 等人的结果大不相同,以下图 1 所示:图片基于 DeepMind 估计的较量争论最优边界,他们猜测用于训练 Gopher 的较量争论估算,一个最优模型该当是模型巨细比之前小 4 倍,而训练的 token 该当是之前的 4 倍多。为了证明这一点,DeepMind 训练了一个更优较量争论的 70B 模型 Chinchilla,具有 1.4 万亿个 token。Chinchilla 不仅功能优于模型更大的 Gopher,而且其减小的模型尺寸大大降低了推理成本,并极大地促进了在较小硬件上的下游使用。庞大言语模型的能源成本通过其用于推理和微调的用途来摊销。因此,经过更优化训练的较小模型的好处,超出了其功能改善的直接好处。特斯拉人工智能和自动驾驶视觉总监 Andrej Karpathy 表示:Chinchilla 是一个新的言语模型(70B),它优于 Gopher (280B), GPT-3 (175B), Jurrasic-1 (178B), MT-NLG (530B) 大模型。这是关于言语模型(LM)新的扩展定律非常重要的论文。图片估计最优参数 / 训练 tokens 分配研究者提出三种不同的法子来解答推动本项研究的问题:给定固定的 FLOPs 估算,该当如何权衡模型巨细和训练 tokens 的数目?在所有三种情况下,研究者首先训练了一系列参数和训练 tokens 都不同的模型,并使用得出的训练曲线来拟合模型扩展的经验估计器(empirical estimator)。三种法子的猜测结果类似,表明模型参数和训练 tokens 的数目该当随着较量争论量的添加而添加,比例以下表 2 所示。这与以前有关该主题的工作形成鲜明对比,值得进一步研究。图片法子 1:固定模型巨细,改变训练 tokens 数目对于第一种法子,研究者改变了固定参数模型(从 70M 到 10B 参数)的训练步数,为每个模型训练了 4 个不同数目的训练序列。运行之后,他们能够直接提取给定训练 FLOPs 所达到的最小丧失的估计值。训练曲线以下图 2 所示。图片法子 2:IsoFLOP在第二种法子中,研究者针对 9 种不同的训练 FLOP(从 6 × 10^18 到 3 × 10^21 FLOPs)改变模型巨细,并考虑到了每个点的最终训练丧失。与法子 1 整个训练运行中考虑点(𝑁, 𝐷, 𝐿)形成了对比,这使得直接回答以下问题:对于给定的 FLOP 估算,最优参数数目是多少?下图 3 为 IsoFLOP 曲线。图片法子 3:拟合一个参数丧失函数最后,研究者将法子 1 和 2 中实验的所有最终丧失建模为一个包含模型参数和可见 tokens 数目的参数函数。遵循经典的风险分解,他们提出了以下函数形式:图片为了估计(𝐴, 𝐵, 𝐸, 𝛼, 𝛽),研究者使用 L-BFGS 算法来最小化猜测和观察到对数丧失(log loss)之间的 Huber 丧失。图片他们通过从初始化网格中选择最佳拟合来考虑可能的局部最小值。Huber 丧失(𝛿 = 10^−3)对异常值具有鲁棒性,这点对于留出数据点实现良好猜测功能非常重要。此外,研究者在下图 4(左)中展示了拟合函数图片的等值线,并以蓝色代表闭合形式(closed-form)的高效较量争论边界。图片最优模型扩展研究者发现,以上三种法子尽管使用了不同的拟合方案和不同的训练模型,但对有关 FLOPs 的参数和 tokens 的最优扩展产生了可比较的猜测。它们都表明了,随着较量争论估算的添加,模型巨细和训练数据量该当以大致相同的比例添加。其中,第一种和第二种法子对最优模型巨细的猜测非常相似,第三种法子在更多较量争论估算下能够最优地猜测更小模型。在下表 3 中,研究者展示了 FLOPs 和 tokens 的估计量,以确保给定巨细的模型位于较量争论最优边界上。结果表明,考虑到各自的较量争论估算,当前一代的大规模言语模型「过于大了」。图片新模型 Chinchilla 根据上文的分析,Gopher 模型的最优模型巨细介于 40B 到 70B 参数之间。出于数据集和较量争论效率的考虑,研究者训练了一个 70B 参数、1.4T tokens 的模型,称之为 Chinchilla,并与 Gopher 和其他大规模言语模型进行了比较。注意,Chinchilla 和 Gopher 的训练 FLOPs 相同,但模型巨细和训练 tokens 不同。由于 Chinchilla 的参数目为 Gopher 的 1/4,因而它的内存占用和推理成本更小。模型参数Chinchilla 的训练超参数及其与 Gopher 的比较以下表 4 所示。两者使用了相同的模型架构和训练设置,但在 head 数目、批巨细等方面有所不同。图片实验结果研究者对 Chinchilla 进行了广泛的评估,与各种大规模言语模型在 Rae et al. (2021)提出的很多义务上展开了比较。这些义务包括言语建模(LM)、阅读理解、问答、常识、MMLU 和 BIG-bench,具体以下表 5 所示。图片言语建模义务。以下图 5 所示,Chinchilla 在 The Pile 的所有评估子集上均显著优于 Gopher。图片多义务言语理解(MMLU)义务。大规模 MMLU 基准测试包含一系列与学科类似的考试问题。在下表 6 中,研究者展示了 Chinchilla 在 MMLU 上的平均 5-shot 功能。可以看到,尽管规模小得多,但 Chinchilla 明显优于 Gopher,平均准确率为 67.6%,比 Gopher 提高了 7.6%。并且,Chinchilla 的准确率甚至超过了 2023 年 6 月专家猜测的 63.4% 。图片在图 6 中,DeepMind 展示了按义务细分结果与 Gopher 的比较。总的来说,研究发现 Chinchilla 提高了绝大多数义务的功能。在四个义务(college_mathematics、econometrics、moral_scenarios 和 formal_logic)上,Chinchilla 的表现不如 Gopher,并且在两个义务上的表现没有变化。图片阅读理解。在单词猜测数据集 LAMBADA 上,Chinchilla 达到了 77.4% 的准确率,而 Gopher 和 MT-NLG 530B 的准确率分别为 74.5% 和 76.6%(见表 7)。在 RACE-h 和 RACE-m 上,Chinchilla 的功能大大优于 Gopher,两种情况下的准确率都提高了 10% 以上。图片BIG-bench。DeepMind 在 BIG-bench 义务上评估了 Chinchilla,与 MMLU 中观察到的情况类似,Chinchilla 在多项义务上优于 Gopher。图片其他更多实验结果详见论文。

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/yan-yu-mo-xing-can-shu-yue-duo-yue-hao-deepmind-yong-700-yi/

(0)
上一篇 2022年 4月 3日 下午9:33
下一篇 2022年 4月 6日 下午5:11

相关推荐

  • 争取盟友、洞察人心,最新的Meta智能体是个谈判高手

    AI 学会了「揣度人心」,这本来是世界上最难的事情之一。

    2022年 11月 23日
  • 腾讯朱雀实验室推出代码防护技巧Deep Puzzling,让代码更难被猜透

    随着AI技巧与网络安全结合得越来越紧密,鉴于AI技巧的网络攻防手段也在日益更替。11月26日,全球顶级的信息安全峰会HITB+Cyberweek 2021于近日举办,腾讯朱雀实验室专家钻研员Jifeng Zhu和钻研员Keyun Luo受邀参加,并进行了题为《Deep Puzzling: Binary Code Intention Hiding based on AI Uninterpretability》(《鉴于AI不可解释性的二进制代码用意躲藏》)的议题分享。会上,腾讯朱雀实验室展示了如何行使AI模型的特性,实

    2021年 11月 27日
  • HAOMO AI DAY官宣定档,年末AI主动驾技术盛筵即将上演

    今日好消息,毫末智行HAOMO AI DAY定档12月23日! 特斯拉AI DAY后,中国AI主动驾驭领域也有了自己的AI主动驾驭技术盛筵!在即将过去的2021年中,毫末智行惊喜不断,三次品牌开放日接连带来Pre-A轮融资、全球首个L4无人车工厂、主动驾驭三定律、NOH 智慧领航辅佐驾驭零碎、全球算力最高的可量产主动驾驭计算平台ICU3.0等众多惊爆人眼球的业务及产品发布,特别是辅佐驾驭用户行驶里程仅150天即突破200万公里、辅佐驾驭零碎3年落地乘用车超100万台的成绩及目标,更是让人们看到了主动驾驭技术大规模量

    2021年 12月 14日
  • 元宇宙的前世今生,业内大佬带你一遍过!

    本篇文章讲述了元宇宙从业者从(1)元宇宙是什么(2)元宇宙需要的要素以及(3)元宇宙如何步入主流社会的观点,带你清晰地认识元宇宙的当下存在的问题以及未来发展的趋势。

    2022年 11月 11日
  • 给一个词就能仿照你的笔迹,Facebook这个AI强大到不敢开源代码

    你在纸上写个词,AI 只要看一眼就能仿照你的笔迹,还是看起来毫无破绽的那种。

    2021年 7月 27日
  • 朱松纯:从人工智能的角度解读《赤壁赋》兼谈“心”与“理”的平均

    作者 | 朱松纯北京通用人工智能研究院院长北京大学讲席教授清华大学基础科学讲席教授目录第一节引言人生轨道:跃迁与升华苏轼的哲思:人生的意义什么是活大白当今学子的困惑第二节初读文学《赤壁赋》:横槊赋诗第三节  重读学术《赤壁赋》:月白风清做学问的本质——登无人之境、享月白风清第四节  再读形而上学《赤壁赋》:“心”与“理”的平均人生的有限和无穷出生与出生:“心欲”与“天理”的平均从人

    2022年 1月 7日
  • 5300亿参数的「威震天-图灵」,微软、英伟达合力造出超大语 言模型

    在微软和英伟达的共同努力下, Turing NLG 17B 和 Megatron-LM 模型的继承者诞生了:5300 亿参数,天生强大,它的名字叫做「Megatron-Turing」。

    2021年 10月 12日
  • 再不用怕Markdown中的绘图了,GitHub官方支持Mermaid图表绘制东西

    开发人员已能够在 GitHub 中使用 Mermaid 图表东西。

    2022年 2月 15日
  • 图神经网络的困境,用微分多少和代数拓扑解决

    微分多少和代数拓扑在主流机器进修中并不常见。在本系列文章中,作者展示了如何使用这些规模的工具从头解释图神经网络并解决一些常见困境。

    2022年 3月 27日
  • 茂密化 芯力量|墨芯参展首日S4估计卡机能表现亮眼

    2022年7月15日,墨芯人工智能参展厦门半导体峰会,首席科学家严恩勖发表报告,展示墨芯如何用茂密化推动AI估计前沿和最新的产业进展。16日墨芯获评“最具投资价值奖”。集微峰会被誉为“半导体业风向标”,设特色“芯力量”展区和EDA展区。墨芯位于“芯力量”展区核心位置——76号展台。   墨芯作为茂密化估计引领者,致力于提供云端和终端AI估计平台和服务,打造软硬共同的新一代智能计

    2022年 8月 17日

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注