谁发表了最具影响力的AI研讨?google遥遥领先,OpenAI成果转化率完胜DeepMind

统计了近三年援用量最高的 100 篇论文,我们发现……

谁在发表最具影响力的 AI 研讨?在如今「百花齐放」的时代,这个问题极具挖掘空间。你可能会猜到一些结论:比如google、微软、OpenAI、DeepMind 这些顶级机构,类似这样的结论只猜对了一半,还有另外一些信息,向我们揭露了原本不为人知的结论。随着 AI 创新的飞速发展,尽快获取一些「情报」是至关重要的。毕竟几乎没人有时间去阅读所有的东西,但可以肯定的是,本文整理的这些论文具备改变人工智能技术发展方向的潜力。对研发团队影响力的真正考验当然是技术如何落地在产品中,OpenAI 在 2022 年 11 月底发布了 ChatGPT,震撼了整个领域,这是继他们 2022 年 3 月的论文「利用人类反馈训练遵循指令的谈话模型」(Training language models to follow instructions with human feedback)之后的又一次突破。如此迅速的产品落地是罕见的。所以,为了洞察到更多信息,近日,Zeta Alpha 的统计采用了一个经典的学术指标:援用次数。对 2022 年、2021 年和 2020 年每年被援用次数最多的 100 篇论文的详细分析,可以深入了解目前发表最具影响力的 AI 研讨的机构和国家 / 地区。一些初步结论是:美国和google仍然占主导地位,DeepMind 在这一年也取得了辉煌的成就,但考虑到产出量,OpenAI 在产品影响和研讨方面确实处于前列,并能快速和广泛地被援用。

图片

资料来源:Zeta Alpha。如上图所示,另外一个重要结论是:中国在研讨援用量上的影响力排行第二,但与美国相比仍存在差距,并不像很多报道中描述的那样「追平甚至超越」。利用来自 Zeta Alpha 平台的数据,然后结合人工策划,本文收集了 2022 年、2021 年和 2020 年人工智能领域被援用次数最多的论文,并分析了作者的所属机构和国家 / 地区。这使得能够按照研发影响而不是纯粹的出版数据对这些论文进行排名。为了创建分析结果,本文首先在 Zeta Alpha 平台上收集了每年被援用次数最多的论文,然后手动检查首次发表日期(通常是 arXiv 预印本),以便将论文放在正确的年份中。然后通过在 Semantic Scholar 上挖掘高援用率的人工智能论文来补充这个名单,因为 Semantic Scholar 的覆盖面更广,而且能够按援用次数排序。这主要是发现了来自高影响力的出版商(如 Nature、Elsevier、Springer 和其他期刊)之外的论文。然后,将每篇论文在google学术上的援用次数作为代表指标,并按这个数字对论文进行排序,得出一年中的前 100 名。对于这些论文,本文使用了 GPT-3 来提取作者、隶属机构和国家 / 地区,并手动检查这些结果(如果国家 / 地区在出版物中不明显,就采用该组织总部所在的国家 / 地区)。如果一篇论文有来自多个机构的作者,每个机构算一次。看了这份排行榜之后,大佬 Yann LeCun 表示很欣慰:「在 Meta AI,我们倾向于出版质量而不是数量。这就是为什么在 2022 年被援用最多的 100 篇人工智能论文中,Meta AI 撰写(或共同撰写)了 16 篇,仅次于google的 22 篇,排名第二。我们的研讨正在对社会产生巨大的影响。(此外,纽约大学的排名也很赞)。」图片所以,刚才谈论的这些 Top 论文有哪些?在深入了解这些数字之前,让我们先了解一下过去三年的热门论文。相信你会认出其中的几篇。2022 年热门论文

1、AlphaFold Protein Structure Database: massively expanding the structural coverage of protein-sequence space with high-accuracy models 

论文链接:https://academic.oup.com/nar/article/50/D1/D439/6430488

机构:DeepMind

援用次数:1372

中心:Using AlphaFold to augment protein structure database coverage.

2、ColabFold: making protein folding accessible to all

论文链接:https://www.nature.com/articles/s41592-022-01488-1

援用次数:1162

中心:An open-source and efficient protein folding model.

3、Hierarchical Text-Conditional Image Generation with CLIP Latents 

论文链接:https://arxiv.org/abs/2204.06125

机构:OpenAI

援用次数:718

中心:DALL・E 2, complex prompted image generation that left most in awe

4、A ConvNet for the 2020s 

论文链接:https://arxiv.org/abs/2201.03545

机构:Meta,UC 伯克利

援用次数:690

中心:A successful modernization of CNNs at a time of boom for Transformers in Computer Vision

5、PaLM: Scaling Language Modeling with Pathways

论文链接:https://arxiv.org/abs/2204.02311

机构:google

援用次数:452

中心:Google's mammoth 540B Large Language Model, a new MLOps infrastructure, and how it performs

2021 年热门论文1、《Highly accurate protein structure prediction with AlphaFold》论文链接:https://www.nature.com/articles/s41586-021-03819-2机构:DeepMind援用次数:8965中心:AlphaFold, a breakthrough in protein structure prediction using Deep Learning2、《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》论文链接:https://arxiv.org/abs/2103.14030机构:微软援用次数:4810中心:A robust variant of Transformers for Vision3、《Learning Transferable Visual Models From Natural Language Supervision》论文链接:https://arxiv.org/abs/2103.00020机构:OpenAI援用次数:3204中心:CLIP, image-text pairs at scale to learn joint image-text representations in a self supervised fashion4、《On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?》论文链接:https://dl.acm.org/doi/10.1145/3442188.3445922机构:U. Washington, Black in AI, The Aether援用次数:1266中心:Famous position paper very critical of the trend of ever-growing language models, highlighting their limitations and dangers5、《Emerging Properties in Self-Supervised Vision Transformers》论文链接:https://arxiv.org/pdf/2104.14294.pdf机构:Meta援用次数:1219中心:DINO, showing how self-supervision on images led to the emergence of some sort of proto-object segmentation in Transformers2020 年热门论文1、《An Image is Worth 16×16 Words: Transformers for Image Recognition at Scale》论文链接:https://arxiv.org/abs/2010.11929机构:google援用次数:11914中心:The first work showing how a plain Transformer could do great in Computer Vision2、《Language Models are Few-Shot Learners》论文链接:https://arxiv.org/abs/2005.14165机构:OpenAI援用次数:8070中心:This paper does not need further explanation at this stage3、《YOLOv4: Optimal Speed and Accuracy of Object Detection》论文链接:https://arxiv.org/abs/2004.10934机构:Academia Sinica, Taiwan援用次数:8014中心:Robust and fast object detection sells like hotcakes4、《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》论文链接:https://arxiv.org/abs/1910.10683机构:google援用次数:5906中心:A rigorous study of transfer learning with Transformers, resulting in the famous T55、《Bootstrap your own latent: A new approach to self-supervised Learning》论文链接:https://arxiv.org/abs/2006.07733机构:DeepMind,Imperial College援用次数:2873中心:Showing that negatives are not even necessary for representation learning领先机构排行让我们来看看一些领先的机构在前 100 名的论文数量上是如何排行的:图片google一直是最强大的参与者,其次是 Meta、微软、加州大学伯克利分校、DeepMind 和斯坦福。虽然如今的工业界在人工智能研讨中「呼风唤雨」,单一的学术机构不会产生那么大的影响,但这些机构的尾巴要长得多,所以当我们按组织类型进行汇总时,就会达到平衡。图片在研讨总量方面,过去三年google居首位,清华大学、卡耐基梅隆大学、麻省理工学院、斯坦福大学等高校排名靠前,而微软位居第三位。整体来看,学术机构的研讨数量是要多于业界科技企业的,而google、微软这两大科技巨头近三年发表的研讨数也是居于高位。图片实际上,google的科研实力一直很强。2017 年,google发表论文《Attention Is All You Need》,标志着 transformer 的问世。直到今天,transformer 依然是包括 ChatGPT 在内的大部分 NLP 和 CV 模型的架构基础。上个月,在 Bard 发布之际,google CEO Sundar Pichai 也在一份公开信中表示:「Google AI 和 DeepMind 推动了最先进技术的发展。我们的 Transformer 研讨项目和我们 2017 年的领域论文,以及我们在扩散模型方面的重要进展,是当前许多生成式 AI 应用程序的基础。」当然,作为新晋顶流 ChatGPT 背后的公司,OpenAI 近三年的研讨成果转化率(Conversion Rate)是具有绝对优势的。最近几年,OpenAI 的大多数研讨成果都引起了极大的关注,特别是在大规模谈话模型方面。图片2020 年,OpenAI 发布了 GPT-3,这个 1750 亿参数的大规模谈话模型在一定程度上颠覆了谈话模型领域的游戏规则,因为它解决了许多大规模谈话模型中的难题。GPT-3 掀起了一场大规模谈话模型的狂潮。几年来,谈话模型的参数规模不断被打破,人们一直在探索大规模谈话模型的更多潜力。2022 年底,ChatGPT 横空出世,它引起了人们对文本生成和 AI 对话系统的高度关注。特别地,ChatGPT 在生成知识型内容和生成代码方面已经表现出非常高的能力。在google、微软陆续宣布将类似 ChatGPT 的功能集成到下一代搜索引擎后,ChatGPT 被认为将引领一场 AIGC 和智能工具的新变革。最后,我们来看一下 2022 年被援用次数最多的 100 篇论文具体有哪些:图片图片图片此处还增加了推特提及次数,这有时被视为早期影响指标。但到目前为止,相关性似乎很弱。还需要进一步的工作。原文链接:https://www.zeta-alpha.com/post/must-read-the-100-most-cited-ai-papers-in-2022

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/21158

(0)
上一篇 2023年3月5日 下午1:17
下一篇 2023年3月6日 下午3:05

相关推荐

  • 「导师要我的论文和别人共同一作」,Nature揭露论文署名乱象:没贡献为啥要署名?

    在科研界,论文署名以及顺序一直是研究人员非常重视的问题。由于各种原因,署名排序过程中难免会出现分歧与争议。近日,《Nature》 对论文署名问题进行了调查,指出了一些不好的现象,并希望能够创建一个公平的论文个人贡献评价系统。

    2021年6月15日
  • ICCV 2021审稿结果出炉,有人已总结出了一份Rebuttal写作指南

    又一个计算机视觉顶会通过了审稿阶段。论文评分是这样,想好怎么 rebuttal 了吗?

    2021年6月12日
  • google力押 Gemini AI,与微软亚马逊等竞品展开正面竞争

    google的 Gemini AI 在往年 6 月首度公开,IT之家早前曾报道,google声称“该 AI 系统将 AlphaGo 背后的技术与大语言模型相结合”,目标是让系统具有新的才能,如规划或解决问题,比 OpenAI 的 GPT-4 才能更强。日前,据外媒 The Information 表示,google似乎“绷不住了”,当下正在“分秒必争”地准备在往年秋季发布这款 Gemini AI,以赶上 OpenAI 的 GPT-4 等竞争对手。外媒同时表示,google在往年秋季发布 Gemini AI 的时机至关重要,google当下正面对着在 AI 层面“落伍”的危险。

    2023年8月16日
  • google Bard 谈天机器人升级,可及时天生答复

    大型语言模型(LLMs)并不是瞬间就能给出谜底的,所以在输出课题和得到回覆之间会有一段延迟。必应谈天供给回覆的方式是在回覆完全天生前逐行显现一部分答复,而google Bard 则是回覆完全天生后一次性显现全部答复,不过当前google Bard 也已经供给类似必应谈天的答复方式。

    2023年10月29日

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注