AI在线 AI在线

模型越大表现越差,这个比赛悬赏25万美元找大模型不擅长的任务,去试试?

帮大模型找bug还能赚钱,去试试?

「找到一项任务,越大的模型反而表现越差,你就有机会拿走 10 万美元的奖金。」这是纽约大学的几位研究人员组织的一项另类竞赛。

图片

随着语言模型变得越来越大(参数数量、使用的计算量和数据集大小都变大),它们的表现似乎也原来越好,这被称为自然语言的 Scaling Law。

图片

但是,这些模型也有自己的缺陷,比如存在偏见、可能产生看似合理实则错误的信息。这项竞赛的目的就是要找到一些大模型不擅长的例子。

组织者将这些现象称为 inverse scaling。这样的例子似乎并不常见,但确实也能找到了一些。比如在问答任务中,如果在提问的同时加上你的信仰,大模型会更容易受到影响。其他可能的例子还包括模仿 prompt 中的错误 / bug 或重复常见的错误概念。这些例子能让我们了解当前语言模型预训练和缩放范式的潜在问题,还可以为改进预训练数据集和目标提供灵感。

比赛共有两轮,第一轮截止时间是 2022 年 8 月 27 日,第二轮截止时间是 2022 年 10 月 27 日。

图片

参赛者需要做到以下几点:

确定一个疑似显示了 inverse scaling 的任务;

为该任务构建包含 300 多个示例的数据集;

使用 Colab notebooks,用 GPT-3/OPT 测试你的数据集的 inverse scaling。

提交的作品将根据 AnthropicAI(一家非营利 AI 安全研究公司)提供的一系列私人模型进行评估,奖项将由一个匿名评审团决定。

其中,一等奖一名,奖金为 10 万美元;二等奖五名,奖金 2 万美元;三等奖 10 名,奖金为 5000 美元。总奖金池为 25 万美元。

比赛结束后,组织方将撰写一份结果调查报告,并发布一个包含已接受任务的基准,获奖者将被邀请为论文的共同作者。

更多详细内容参见 GitHub:

图片

项目链接:https://github.com/inverse-scaling/prize

相关资讯

2021美国科学天才奖出炉:高中生瓜分180万奖金

2021 年的美国科学天才奖被颁给了一群研究无限匹配算法、机器学习、评测新药和饮用水过滤的高中生。
3/26/2021 3:47:00 PM
机器之心

DeepSeek R2来了?全新推理时Scaling论文联手清华震撼发布!

DeepSeek R2,果然近了。 最近,DeepSeek和清华的研究者发表的这篇论文,探讨了奖励模型的推理时Scaling方法。 图片论文地址:,强化学习(RL)已广泛应用于LLM的大规模后训练阶段。
4/7/2025 3:44:00 AM
新智元

大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘

大模型的成功很大程度上要归因于 Scaling Law 的存在,这一定律量化了模型性能与训练数据规模、模型架构等设计要素之间的关系,为模型开发、资源分配和选择合适的训练数据提供了宝贵的指导。以往的大量研究集中于上游复杂度或交叉熵损失的 Scaling law(即在预训练数据上进行评估),但在实际应用中,模型通常要经历一个迁移学习的过程:首先在无监督数据上进行预训练,然后针对特定的下游任务(如编码或翻译)进行微调。那么,Scaling Law 能不能用于预测下游任务性能?这个关键问题很大程度上仍未得到解答。在最近的一
2/27/2024 2:41:00 PM
机器之心
  • 1