Transformer 架构还有助于大型文本语料库上的预训练,在文本分类、语言理解、机械翻译、共指消解、常识推理以及摘要生成等下游任务上实现了准确率的较大增益。然而,为使这些模型得到广泛的应用,研究人员还必须解决各式各样的实际挑战。另外,Transformer 无处不在的应用要求系统能够在不同平台上训练、分析、缩放和扩增模型。在这篇被评选为 EMNLP 2020 最佳 Demo 论文奖的论文中,来自 Hugging Face 的研究者详细描述了专用于支持 Transformer 架构以及促进预训练模型分布的 Transformers 库。该库包含多个精心设计的 SOTA Transformer 架构,使用统一的 API。此外还汇集了社区构建的多个预训练模型,并向社区开放。目前,该库的 star 量高达 37.9K,包含数千个预训练模型。机械之心最新一期线上分享邀请到了 Transformers 库维护者之一、加州大学圣迭戈分校博士生许灿文,为大家详细解读 Transformers。
分享主题:Hugging Face Transformers 库分享嘉宾:许灿文,加州大学圣迭戈分校博士生,Transformers 维护者之一。分享概要:Hugging Face 的 transformers 库为 Transformers 模型供给了统一、简洁、全面的 API,实现了对研究者可拓展、对从业人员简单友好、工业部署迅速健壮的目标。该库已经成为了 NLP 前沿领域研究的「标配」。本次分享将以 EMNLP 2020 best demo 为出发点,介绍 transformers 库和其背后的设计哲学、最新功能和未来展望。直播时间:北京时间 12 月 15 日 20:00-21:00论文链接:https://www.aclweb.org/anthology/2020.emnlp-demos.6/项目地址:https://github.com/huggingface/transformers加入灵活组,一起看直播「灵活组」是机械之心发起的人工智能技能社区,将持续供给技能公开课、论文分享、热门主题解读等线上线下活动,并在社群中供给每日精选论文与教程、智能技能研究周报,同时「灵活组」也将不定期组织人才服务、产业技能对接等活动,欢迎所有 AI 领域技能从业者加入。增添机械之心小帮忙(syncedai5),备注「2020」,加入本次直播群。
ps:如果小帮忙无法增添,请将「微信 ID」发送邮件到 [email protected],我们将与你联系,邀你入群。
Powered by Froala Editor
原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/xian-shang-fen-xiang-transformers-ku-wei-hu-zhe-zhi-yi-ucsd/