展望热门歌曲成功率 97%?这份清单前来「打假」

单看数据结果是不够的,要仔细判断这些数据的可靠性。

展望风口、潮流是每个行业都热衷的事情。这可以让从业人员第一时间掌握行业的最新动向,成为行业某一时段的领军者。

音乐行业也同样如此。音乐公司都希望自己能够展望到下一次的音乐潮流,准确地挑选出下一首热门歌曲,赚个盆满钵满。那实现这种展望是可能的吗?

据《 Scientific American》与 《Axios》报道,这样的模型真的浮现了,介绍它的论文甚至被称为可以改变音乐产业的文章。97% 的超高展望成功概率,能够让音乐公司不必再层层筛选,耗时耗力,而是通过模型就能够高效地展望出下个音乐「时尚单品」。这样的好办法何乐而不为呢?

展望热门歌曲成功率 97%?这份清单前来「打假」

事实真的如此吗?

在这篇论文发出前,已经有一些研讨表示,音乐欣赏作为主观性极强的事情,任何结果都是有可能的:最好的歌曲很少表现不佳,最差的歌曲很少表现良好,但不代表这些情况全然不会浮现。

展望热门歌曲成功率 97%?这份清单前来「打假」

甚至有文章直接表示「本文认为,音乐展望还不是一项数据迷信活动」。

展望热门歌曲成功率 97%?这份清单前来「打假」

那么 97% 的展望成功概率如何实现的?是我们高估了展望难度还是低估了模型的能力?

有人指出,实际上并非如此。其实,人们现在还是无法用机械进修的方法来展望热门音乐。

展望热门歌曲成功率 97%?这份清单前来「打假」

文章地点:https://reproducible.cs.princeton.edu/predicting-hits.html

文中指出了这个展望热门音乐高准确率论文的纰漏:

论文作者利用了 33 位听众对 24 首歌曲的反应数据。他们的初始数据集由 24 个样本组成,每首歌曲一个样本。对于每首歌,模型只依赖三个特征来展望它是否会成为热门歌曲,这些特征的值取所有听众的平均值。他们利用这个数据集,通过一种叫做 「过度采样 」的方法,创建了一个包含 10000 个样本的合成(假)数据集。尝试机械进修模型的主要考虑因素之一是,其训练数据应与评估数据应该完全分开。而本文的关键同伴就在于,这种训练 – 尝试分离是在数据已经过采样之后进行的。因此,训练数据和尝试数据之间的相似度远远高于包含其他歌曲的新数据集。换句话说,论文没有提供模型在新歌曲上表现如何的证据。

当我们在作者发布的原始数据上修正这个误差后尝试模型时,模型的准确性比随机好不了多少。我们还发现,利用作者的合成数据集,准确率实际上可以达到 100%。这并不奇怪:由于超采样程度如此之高,利用训练或尝试分集都有可能重建原始数据。换句话说,他们是在基本相同的数据上进行训练和尝试。

可见,97% 这个数据虽然看着不错,但可信度非常低,它并不能代表一个模型的能力,也并不证明音乐可以真正被展望。

这篇论文中介绍的模型存在机械进修中最多见的缺陷之一:数据揭发。这意味着,模型是在与训练数据相同或相似的数据上进行评估的,这就扩大了对准确性的估计。在实际应用中,效果就会大打折扣。这相当于开卷考试 97 分的同学突然要闭卷考试,那么 97 分就不能作为衡量这位同学的成绩了。

其实数据揭发这样的同伴不仅仅浮现在这一篇文章里。很多文章,甚至很多规模都浮现了这种同伴。

例如就在上个月, 2020 年的一篇著名肿瘤学论文中发现渗漏。而这篇文章发表在最负盛名的迷信期刊之一《自然》上,而在发现同伴之前已经积累了上百次的引用。

展望热门歌曲成功率 97%?这份清单前来「打假」

论文地点:https://www.biorxiv.org/content/10.1101/2023.07.28.550993v1.full.pdf

该研讨报告了微生物与 33 种不同癌症类型之间的强相关性,并创建了机械进修展望器,其区分癌症的准确性接近完美。我们发现报告的数据和方法至少存在两个根本性的缺陷:

(1)基因组数据库和相关计算方法的同伴导致所有样本中浮现了数百万个细菌读数的假阳性结果,这主要是因为大多数被鉴定为细菌的序列实际上是人类的

(2)原始数据转换中的同伴产生了一种人工特征,即使是对没有检测到读数的微生物也是如此,它为每种肿瘤类型标记了一个独特的信号,机械进修程序随后利用这个信号创建了一个表面上准确的分类器。

这些问题都使结果无效,从而得出结论:研讨中提出的鉴于微生物组的癌症识别分类器是完全同伴的。这些问题随后又影响了其他十几项已发表的研讨。这些研讨利用了相同的数据,其结果很可能也是无效的。

机械进修中常浮现的问题

揭发是鉴于 ml 的迷信中的许多同伴之一。这样的同伴很多见的一个原因是,机械进修在各个迷信规模中被随意采用,论文中报告机械进修结果的标准没有跟上步伐。过去在其他规模的研讨发现,报告标准有助于提高研讨的质量,但在少数规模以外的鉴于机械进修的迷信中,这种标准并不存在。

除了揭发外,解释同伴同样也是一个多见的同伴,这与论文中如何描述研讨结果以及他人如何理解研讨结果有很大关系。

一篇系统性综述发现,提出临床展望模型的论文通常会对其研讨结果进行编造 — 例如,声称某个模型适合临床利用,但却没有证据表明该模型在其尝试的特定条件之外也有效。这些同伴并不一定扩大了模型的准确性。相反,它们扩大了模型可以在何时何地有效利用。

展望热门歌曲成功率 97%?这份清单前来「打假」

综述地点 https://www.sciencedirect.com/science/article/pii/S0895435623000756

另一个经常浮现的疏忽是没有明确模型输出的不确定性水平。同伴判断会导致对模型的同伴信任。许多研讨没有精确定义被建模的现象,导致研讨结果的含义不明确。

展望热门歌曲成功率 97%?这份清单前来「打假」

相关论文地点:https://arxiv.org/abs/2206.12179

清单 REFORMS

既然这些同伴这么多见,有没有什么办法可以避免呢?

有团队做出了清单 REFORMS((Reporting standards for Machine Learning Based Science) ,供大家参考,并能够最大限度地减少鉴于机械进修的迷信研讨中的同伴,以及在同伴悄然浮现时使其更加明显。现在公开的是预印本。

展望热门歌曲成功率 97%?这份清单前来「打假」

文章地点:https://reforms.cs.princeton.edu/

这是一份包含 8 个模块、32 个项目的核对表,对开展机械进修迷信研讨的研讨人员、审阅迷信研讨的裁判员以及提交和发表迷信研讨的期刊都有帮助。该清单由计算机迷信、数据迷信、社会迷信、数学和生物医学研讨规模的 19 位研讨人员共同制定。作者的学科多样性对于确保这些标准在多个规模都有用至关重要。

这 8 个板块及 32 个项目如下所示,如果你也正在进行着相关研讨,可以作为参考。

展望热门歌曲成功率 97%?这份清单前来「打假」

展望热门歌曲成功率 97%?这份清单前来「打假」

展望热门歌曲成功率 97%?这份清单前来「打假」

展望热门歌曲成功率 97%?这份清单前来「打假」

展望热门歌曲成功率 97%?这份清单前来「打假」

当然要解决鉴于计算机迷信研讨的所有缺陷,仅靠一份检查清单是远远不够的。但是考虑到同伴的普遍性和缺乏系统的解决方案,该团队这样的一份清单是被迫切需要的。

参与清单制作的成员指出,如果鉴于计算机迷信的研讨都利用这份清单自查,那他们就不会费力给猪涂口红了(比喻想要把丑陋的事物变美好而做的无用功)。

给TA打赏
共{{data.count}}人
人已打赏
AI

解锁Midjourney隐藏技能:改改Prompt,四宫格就「裂变」了

2023-8-21 15:15:00

AI

大模型加持的机器人有多强,MIT CSAIL&IAIFI用自然言语引导机器人抓取物体

2023-8-21 15:32:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索