在了解通用类似定理之前,你可能都不会了解神经搜集

通用类似定理很好地解释了为什么神经搜集能工作以及为什么它们经常不起作用。

此前,图灵奖得主、深度学习先驱 Yann LeCun 的一条推文引来众多网友的讨论。在该推文中,LeCun 表示:「深度学习并不像你想象的那么令人印象深刻,因为它仅仅是通过曲线拟合产生的插值结果。但在高维空间中,不存在插值这样的情况。在高维空间中,一切都是外推。」

在了解通用类似定理之前,你可能都不会了解神经搜集

而 LeCun 转发的内容来自哈佛认知科学家 Steven Pinker 的一条推文,Pinker 表示:「 通用类似定理很好地解释了为什么神经搜集能工作以及为什么它们经常不起作用。只有了解了 Andre Ye 的通用类似定理,你才能了解神经搜集。」

在了解通用类似定理之前,你可能都不会了解神经搜集

Pinker 所提到的 Andre Ye,正是接下来要介绍《You Don’t Understand Neural Networks Until You Understand the Universal Approximation Theorem》文章的作者。虽然该文章是去年的,但在了解神经搜集方面起到非常重要的作用。在人工神经搜集的数学理论中, 通用类似定理(或称万能类似定理)指出人工神经搜集类似任务函数的能力。通常此定理所指的神经搜集为前馈神经搜集,并且被类似的目标函数通常为输出输出都在欧几里得空间的连续函数。但亦有研究将此定理扩展至其他类型的神经搜集,如卷积神经搜集、放射状基底函数搜集、或其他特殊神经搜集。此定理意味着神经搜集可以用来类似任务的单纯函数,并且可以达到任务类似精准度。但它并没有告诉我们如何选择神经搜集参数(权重、神经元数量、神经层层数等等)来达到我们想类似的目标函数。1989 年,George Cybenko 最早提出并证明了单一公开层、任务宽度、并运用 S 函数作为激励函数的前馈神经搜集的通用类似定理。两年后 1991 年,Kurt Hornik 研究发现,激活函数的选择不是关键,前馈神经搜集的多层神经层及多神经元架构才是使神经搜集有成为通用迫近器的关键。最重要的是,该定了解释了为什么神经搜集似乎表现得如此聪明。了解它是发展对神经搜集深刻了解的关键一步。更深层次的探索紧凑(有限、封闭)集合上的任何连续函数都可以用分段函数迫近。以 – 3 和 3 之间的正弦波为例,它可以用三个函数来类似——两个二次函数和一个线性函数,如下图所示。

在了解通用类似定理之前,你可能都不会了解神经搜集

然而,Cybenko 对这个分段函数描述更为具体,因为它可以是恒定,本质上通过 step 来拟合函数。有了足够多的恒定域 (step),我们就可以在给定的范围内合理地估计函数。

在了解通用类似定理之前,你可能都不会了解神经搜集

基于这种类似,我们可以将神经元当做 step 来构建搜集。利用权值和偏差作为「门」来确定哪个输出下降,哪个神经元应该被激活,一个有足够数量神经元的神经搜集可以单纯地将一个函数划分为几个恒定区域来估计。对于落在神经元下降部分的输出信号,通过将权重放大到较大的值,最终的值将接近 1(当运用 sigmoid 函数计算时)。如果它不属于这个部分,将权重移向负无穷将产生接近于 0 的最终结果。运用 sigmoid 函数作为某种处理器来确定神经元的存在程度,只要有大量的神经元,任何函数都可以近乎完美地类似。在多维空间中,Cybenko 推广了这一思想,每一个神经元在多维函数中控制空间的超立方体。通用类似定理的关键在于,它不是在输出和输出之间建立单纯的数学关系,而是运用单纯的线性操作将单纯的函数分割成许多小的、不那么单纯的部分,每一个部分由一个神经元处理。

在了解通用类似定理之前,你可能都不会了解神经搜集

自 Cybenko 的初始证明以后,学界已经形成了许多新的改进,例如针对不同的激活函数(例如 ReLU),或者具有不同的架构(循环搜集、卷积等)测试通用类似定理。不管怎样,所有这些探索都围绕着一个想法——神经搜集在神经元数量中找到优势。每一个神经元监视特征空间的一个模式或区域,其大小由搜集中神经元的数量决定。神经元越少,每一个神经元需要监视的空间就越多,因此类似能力就会下降。但是,随着神经元增多,无论激活函数是什么,任何函数都可以用许多小片段拼接在一起。泛化和外推有人可能指出,通用类似定理虽然单纯,但有点过于单纯(至少在概念上)。神经搜集可以分辨数字、生成音乐等,并且通常表现得很智能,但实际上只是一个单纯的迫近器。神经搜集旨在对给定的数据点,能够建模出单纯的数学函数。神经搜集是个很好的迫近器,但是,如果输出超出了训练范围,它们就失去了作用。这类似于有限泰勒级数类似,在一定范围内可以拟合正弦波,但超出范围就失效了。

在了解通用类似定理之前,你可能都不会了解神经搜集

外推,或者说在给定的训练范围之外做出合理预测的能力,这并不是神经搜集设计的目的。从通用类似定理,我们了解到神经搜集并不是真正的智能,而是公开在多维度伪装下的估计器,在二维或三维中看起来很普通。定理的实际意义当然,通用迫近定理假设可以继续向无穷大添加神经元,这在实践中是不可行的。此外,运用神经搜集近乎无限的参数组合来寻找性能最佳的组合也是不切实际的。然而,该定理还假设只有一个公开层,并且随着添加更多公开层,单纯性和通用迫近的潜力呈指数增长。取而代之的是,机器学习工程师依据直觉和经验决定了如何构造适合给定问题的神经搜集架构,以便它能够很好地迫近多维空间,知道这样一个搜集的存在,但也要权衡计算性能。

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/zai-liao-jie-tong-yong-lei-si-ding-li-zhi-qian-ni-ke-neng/

(0)
上一篇 2021年 9月 7日 下午2:28
下一篇 2021年 9月 9日 下午6:51

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注