AI在线 AI在线

谷歌推出新方法:训练数据量减少 1 万倍,提升模型精准度

近日,谷歌在其研究中提出了一种新颖的主动学习筛选流程,旨在大幅降低微调大型语言模型所需的训练数据量。 根据实验结果,这种方法能够将训练数据量降低至原来的1万分之一,同时提高模型与人类专家判断的一致性达65%。 在实际应用中,如广告内容分类、金融数据安全分析等领域,对高保真训练数据的需求一直很高,但筛选出符合要求的数据不仅难度大,成本也极为昂贵。

近日,谷歌在其研究中提出了一种新颖的主动学习筛选流程,旨在大幅降低微调大型语言模型所需的训练数据量。根据实验结果,这种方法能够将训练数据量降低至原来的1万分之一,同时提高模型与人类专家判断的一致性达65%。在实际应用中,如广告内容分类、金融数据安全分析等领域,对高保真训练数据的需求一直很高,但筛选出符合要求的数据不仅难度大,成本也极为昂贵。

谷歌 (3)

图源备注:图片由AI生成,图片授权服务商Midjourney

这一新方法从一个零样本或少样本的初始模型开始,用户通过提示定义目标内容,比如询问某广告是否为 “点击诱饵”。初始模型会将广告标记为点击诱饵或良性,并生成一个大型标记数据集。然而,初始数据集常常存在严重的类别不平衡,导致模型的准确识别能力较弱。

为了解决这一问题,研究者将模型标记为点击诱饵和良性广告的内容进行分组,发现部分组之间存在重叠,说明模型在这些内容上容易判断错误。因此,研究者可以从这些重叠组中挑选样本对,交由专家进行判断,以此来控制审核成本,并优先选择能覆盖多种情况的样本对。这样得到的样本既有价值,又涵盖了各种可能出错的情形。

在模型微调过程中,专家提供的标注被分为两组,一组用于评估模型一致性,另一组则用于模型的微调。这一过程将不断重复,直到模型的表现达到与人类专家相近的水平。

谷歌的实验使用了 Gemini Nano-1和 Nano-2两款模型,并针对两个复杂度不同的任务进行了测试。在测试中,每个任务都使用了约10万条众包标注数据,尽管这些数据严重不平衡。结果表明,专家之间的判断一致性很高,而众包标签与专家判断的一致性则相对一般。通过新方法,32.5亿参数的模型在低难度任务上的对齐度显著提升,使用的数据量仅为250-450条,较原来的10万条大幅减少,仍能取得良好的效果。

综上所述,谷歌的新方法证明了只需少量高质量的数据,且确保专家标注一致性超过0.8,大型模型也能在训练时获得出色的表现。

划重点:  

📉 训练数据量可减少至原来的1万分之一,提高模型精准度。  

🤝 新方法依赖专家判断与模型迭代,确保样本质量。  

📊 实验表明,使用少量高质量数据可达到甚至超越传统大量数据的效果。  

相关资讯

厦大团队材料预测迁移学习范式登Nature子刊,发现高性能催化剂

编辑 | KX传统的材料发现依赖反复试验或偶然发现,效率低下且成本高昂。AI 在发现新型催化剂方面潜力巨大。然而,受到算法的选择,以及数据质量和数量的影响。在此,来自厦门大学、深圳大学、武汉大学、南京航空航天大学和英国利物浦大学的研究团队开发了一种迁移学习范式,结合了预训练模型、集成学习和主动学习,能够预测未被发现的钙钛矿氧化物,并增强该反应的通用性。通过筛选 16,050 种成分,鉴定和合成了 36 种新的钙钛矿氧化物,其中包括 13 种纯钙钛矿结构。Pr0.1Sr0.9Co0.5Fe0.5O3(PSCF)和 P
7/31/2024 2:18:00 PM
ScienceAI

视觉语言指令微调数据如何构建?

1、构建策略视觉语言指令微调数据构建策略主要有以下两种:标注适配由于视觉模型的发展,已有规模巨大、多样性且高质量的标注数据。 这些数据适合于广泛的下游任务,并可容易地改造为指令数据。 许多工作将已有的标注数据转化为标准的指令数据格式。
3/21/2025 8:00:00 AM
Goldma

大型语言模型参数高效微调技术详解(必看)

随着Transformer架构的广泛应用,以GPT为代表的大型语言模型(LLM)在自然语言处理领域取得了突破性进展。 这些模型通过"预训练 微调"的范式,在下游任务中展现出强大的性能。 然而,随着模型参数规模从数亿增长到数百亿甚至万亿,全量参数微调(Full Fine-tuning)面临以下挑战:计算资源瓶颈:全量微调需要消耗大量的计算资源和内存存储成本高昂:为每个下游任务单独存储微调模型成本巨大灾难性遗忘:全量微调易导致模型"遗忘"预训练阶段获得的知识过拟合风险:尤其在训练数据有限的情况下,全量微调易出现过拟合基于上述考量,参数高效微调技术(Parameter-Efficient Fine-Tuning, PEFT)应运而生。
5/8/2025 5:00:00 AM
口袋数据
  • 1