本文主要讨论一下神经网络的一般学习方法,主要有error-correction learning,memory-based learning, Hebbian learning,competitive learning, Boltzmann learning等。然后介绍一些学习的方式,如监督学习、非监督学习、强化学习等。最后是一些具体的应用领域和实际问题。
1.Knowledge Representation
好的学习方法固然重要,但知识的表示,直接影响到feature的表示,也是非常重要的,因此在正式讨论学习方法之前,我们首先谈谈知识的表示。 首先一个问题是,什么是知识?在PRML中我们有如下定义:
Knowledge refers to stored information or models used by a person or machine to interpret, predict, and appropriately respond to the outside world.
在知识的表示中需要考虑的两个核心问题是: 1). What information is actually made explicit(明确的;清楚的;直率的;详述的); 2). How the information is physically encoded for subsequent(后来的,随后的) use. 很显然,这里知识的表示是目标驱动的(goal directed),在现实世界的智能设备中,一些好的解决问题的办法依赖于好的知识表示方法。
一个精心设计的神经网络应该能够很恰当的表示出现实世界的知识,这是一个极大的挑战,因为知识的表示方式是多种多样的,而现实世界的知识也是丰富多彩的, 也就意味着我们的神经网络的输入是千变万化的。一般而言,在PRML中我们将现实世界的知识分为以下两种: 1). Prior information = the known facts. 2). Observation (measurements). Usually noisy, but give examples(prototypes) for training the neural network. 其中Observation中的examples包含两种类型的,一种是labeled,另一种是unlabeled。
在神经网络中,那些自由变量(包括weights和biases)是知识表示的关键。知识的表示一般应该满足一下几个规则: Rule 1. Similar inputs from similar classes should produce similar representations inside the network, and they should be classified to the same category. Rule 2. Items to be categorized as separate classes should be given widely different representations in the network. Rule 3. If a particular feature is important, there should be a large number of neurons involved in representing it in the network. Rule 4. Prior information and invariances should be built into the design of a neural network.
一方面,我们应该如何将先验知识运用到我们的神经网络(简记为NN)的设计中呢?没有通用的方法,但能产生更好结果的专用方法到是有两种: 1). Restricting the network architecture through the use of local connections known as receptive fields(接受域). 2). Constraining the choice of synaptic weights through the use of weight-sharing. 这两种方法都是通过减少需要学习的自由变量来达到目的的。当然我们也可以利用Bayes公式来将先验知识应用到我们的NN的设计中。
另一方面,我们应该如何将Invariances(不变性;恒定性)融入到我们的NN的设计中呢?我们有三种思路可以考虑: 1). Invariance by Structure - Synaptic connections between the neurons are created so that transformed versions of the same input are forced to produce the same output. Drawback: the number of synaptic connections tends to grow very large. 2). Invariance by Training - The network is trained using different examples of the same object corresponding to different transformations (for example rotations). Drawbacks: computational load, generalization ability for other objects. 3). Invariant feature space - Try to extract features of the data invariant to transformations. Use these instead of the original input data. Probably the most suitable technique to be used for neural classifiers. Requires prior knowledge on the problem. 然而,要优化一个NN的结构是非常困难的,通常需要一些先验的知识。
2.Basic Learning Rules
首先我们对NN的学习做如下的定义:
这个定义蕴含以下几个意思: 1). The neural network is stimulated by an envirnment. 2). The neural network undergoes changes in its free parameters as a result of this stimulation. 3). The neural network responds in a new way to the envirnment because of the changes that have occurred in its internal structure.Learning is a process by which the free parameters of a neural network are adapted through a process of stimulation by the environment in which the network is embedded. The type of learning is determined by the manner in which the parameters changes take place.
2.1 Error-Correction Learning
Error-Correction的学习方法的核心思想是:对于给定输入,优化权值(weights)使得输出(设为$y_{k}(n)$)与真实值(设为$d_{k}(n)$) 的偏差最小。我们先定义一个error signal如下:
那么如何来求解这个优化问题呢?这里我们有一个所谓的delta-rule,也称为Widrow-Hoff rule
2.2 Memory-Based Learning
Memory-Based Learning,顾名思义,是一种将past experiences全部保存起来的策略。假设我们的经验数据集为:
2.3 Hebbian Learning
Hebb规则是最古老也是最流行的NN学习规则,现在一般都是它的扩展版的规则,其基本思想是根据联接的神经元的活化 水平改变权,即两种神经元间联接权的变化与两神经元的活化值(激活值)相关,若突触(connection)两端的两神经元同时 兴奋,则联接加强;若不同时兴奋,则联接减弱甚至忽略。
Hebbian规则有以下几个特点: Time-dependent: 权值修正仅发生于突触前(如输入$x_{i}$)和突触后(如输出$y_{j}$)同时存在信号的时候; Local: 仅使用神经元能够取得的局部的信息; Interactive: 权值修正同时依赖于突触前和突触后,信号间的交互可以是确定性的或随机的; Conjunctional or Correlational: 突触前与突触后的信号产生时间与权值修正是密切相关的。
权值修正可以分为Hebbian, anti-Hebbian, 和non-Hebbian等三种情况。Hebbian方式会增强正相关的突触前和突触后的信号,而减弱负相关的 突触前和突触后的信号。anti-Hebbian方式则与Hebbian相反。而non-Hebbian则不使用Hebbian方式。Hebbian的权值修正方式的一般形式为:
2.4 Competitive Learning
竞争型学习规则是指网络的某神经元群体中所有神经元相互竞争对外界刺激模式响应的能力,竞争取胜的神经元的联接权变化向着对这一 刺激模式竞争更为有力的方向进行。具体而言,就是任何时候输出层的神经元有且仅有一个(即输出最大的那个神经元)是激活的,这种学习 规则比较适合于寻找分类任务的相关feature。
2.5 Boltzmann Learning
Boltzmann的学习方法是一种随机化的学习方法,它结合随机过程、概率和能量等概念来调整网络的变量,从而使网络的能量函数最小(或最大)。 在学习过程中,网络变量的随机变化不是完全随机的,而是据能量函数的改变有指导的进行。网络的变量可以是联接权,也可以是神经元的状 态。能量函数可定义为问题的目标函数或者网络输出的均方差函数。 基于Boltzmann的学习方法的NN称为Boltzmann机,关于Boltzmann机的更多 详细内容将会在后续文章中深入讨论。
3.Learning Methodologies
3.1 Credit-Assignment Problem
Credit Assignment(CA) Problem是指,一个learning machine的输出结果应该归功于或归咎于哪些内部或中间decision。在很多情况下,输出结果是由一些列的 actions来决定的,也就是说,中间决策过程影响需要采取的特定的action,然后这些action而不是那些decision直接影响最终的输出的。在这种情况下,我们 可以将这个CA问题分解为两个子问题: 1). The assignment of credit for outcomes to actions. This is called the Temporal Credit-Assignment problem in that it involves the instants of time when the actions that deserve credit were actually taken. 2). The assignment of credit for actions to internal decisions. This is called the Structural Credit-Assignment problem in that it involves assigning credit to the internal strucures of actions generated by the system. 结构型CA问题在多组件的learning machine中比较常见,我们需要知道哪些组件需要修改,以及修改后能够对最终结果有多大的改善。而时间型CA问题中,我们需要 知道在某一时刻采取的多个action中,哪些action主要决定了最终的输出。
当我们使用Error-Correction来训练一个多层的前向反馈神经网络时,就会出现CA问题。很显然,最终输出与隐层和输出层的神经元都是相关的,而权值的修正 是通过当前输出自适应目标输出来实现的。
PS:这一节看的云里雾里的,似懂非懂,感觉有点脱离NN的样子,但这ms是一个general的问题,所以其中的一些术语也是general的,比如decision,action,credit等, 导致理解起来比较困难,:-(
3.2 Learning with a Teacher
Learning with a Teacher也就是supervised learning(监督学习),Error-Correction的学习方法就属于这种。在监督学习中,对于分类或识别问题,输入数据 不仅包含输入的feature,还包含它对应的label,即它所属的类别(也就是teacher提供的answer)。Error-Correction的学习方法的目标函数就是使NN的输出与Teacher的 answer的差异最小,即均方误差最小。经过监督学习之后,NN应该能够在不需要Teacher的情况下对新数据进行处理(分类或识别等)。
3.3 Learning without a Teacher
Learning without a Teacher包含两种学习方法:非监督学习(Unsupervised Learning)和增强学习(Reinforcement Learning)。在非监督学习中, 没有Teacher指导学习过程,也没有可用的critic,此时NN只能尝试着学习出数据中隐含的统计规律,例如用一个适合的线性模型来区分输入数据。 Competitive Learning和Hebbian Learning都算是非监督型学习。经过非监督学习之后,NN可以对输入数据进行特征编码。
而在增强学习中,用到了critic,它将从环境中获取的原始信号转换为更高质量的启发式的增强信号。系统从延迟的reinforcement中学习, 这意味着系统观察到的是时序的状态向量,这最终将会产生启发式的增强信号。增强学习的目标是为了最小化一个cost-to-go-function,它的 另一个任务是discover the actions determining the best overall behavior of the system。增强学习的过程与动态规划算法非常相似。
4.Learning Tasks
前文中主要讨论了一些Learning Algorithm和Learning Paradigm,在这一节主要介绍一些Learning的Task,对于一个特定的Learning Task,需要使用对应的 学习算法。
4.1 Pattern Association
Associative Memory是一种像大脑一样分布式的、learns by association的memory。Association是人类记忆的主要特点,它可以分为 autoassociation和heteroassociation。在autoassociation中,NN需要通过不断的将patterns(vectors)呈现给NN来保存一个pattern集合,最后 NN会呈现原始pattern的部分描述或包含噪声的version,而我们的任务就是要恢复这个特定的pattern。而在heteroassociation中,任意一个输入的pattern集与 另外人一个输出的pattern集是成对的。Autoassociation使用非监督的学习方法,而heteroassociation使用监督学习的方法。 PS:这一段表示看不太懂,有些概念无法理解!
4.2 Pattern Recognition
模式识别如语音识别、人脸识别、物体识别等,在模式识别中,NN首先通过学习训练出网络的链接权重,然后对测试数据进行分类。一般输入数据为高维的 特征向量(feature vector),经过训练后,数据的决策空间根据特征的pattern被分割成了若干区域。在模式识别中NN起到两种角色:一方面在非监督NN中进行特征 提取,另一方面在随后的监督学习中用于分类决策。在多层前向反馈网络中,隐层就可以看做是特征提取(往往是对特征进行了降维,即输入的维数大于隐层的 神经元个数)的角色。
4.3 Function Approximation
设有一个非线性的输入输出映射$d = f(x)$,其中$x$为输入,$d$为输出,而映射函数$f(.)$是未知的,但我们知道的是一系列带label的样本
4.4 Control
NN也可以用于控制系统,例如用在误差反馈控制系统中。
4.5 Filtering
一个Filter可以从包含噪声的观察样本中获取一些有趣的性质,它可以用于Filtering、Smoothing以及Prediction等,例如它可以解决cocktail party problem(鸡尾 酒会问题),这是一个blind signal separation的问题,这可以通过independent的假设来解决。
5. Adaptation
在一个稳定的环境中,一个NN经过学习之后,就可以保持weight不变了,并将之应用在新数据上。但在实际应用中,环境是会随着时间而改变的,这就需要我们不断 更新我们的NN模型,也就是要根据环境变化(输入数据的变化)来改变weight,这个过程称为Adaptation。在Adaptation中,线性的adaptation方法是最简单的,然而更多的 可能是使用非线性的filter。在实际中,我们也可以在适当的时机重新训练NN。
推荐资料
Machine Learning Lecture by Andrew Ng, Stanford University Lecture VIII: Neural Network - Representation Lecture IX: Neural Network - Learning Video courses on Coursera: https://class.coursera.org/ml-2012-002/lecture/index Lecture homepage in Standford: http://cs229.stanford.edu/
参考文献
[1] Simon Haykin, “Neural Networks: a Comprehensive Foundation”, 2009 (3rd edition) [2]T-61.3030 PRINCIPLES OF NEURAL COMPUTING (5 CP)