320 likes | 459 Views
第五章 神经网络信号处理. 郑宝玉. 主要内容. 神经网络模型及其训练 自适应主分量分析 模糊自适应信号处理 其它非线性滤波. 神经网络模型及其训练. 引言 神经网络模型. 静态神经网络 动态神经网络. 神经网络训练. 训练规则 训练方法. 神经网络模型及其训练. 静态神经网络 1 . 多层感知器 (MLP: Multilayer Perceptron). 神经网络模型. - 多层感知器是信号处理中应用最多的神经网络结构, 如图 1 所示。 - 多层感知器是一种前饋神经网络 , 由输入层、输出层和
E N D
第五章 神经网络信号处理 郑宝玉
主要内容 • 神经网络模型及其训练 • 自适应主分量分析 • 模糊自适应信号处理 • 其它非线性滤波
神经网络模型及其训练 • 引言 • 神经网络模型 • 静态神经网络 • 动态神经网络 • 神经网络训练 • 训练规则 • 训练方法
神经网络模型及其训练 • 静态神经网络 1.多层感知器(MLP: Multilayer Perceptron) • 神经网络模型 -多层感知器是信号处理中应用最多的神经网络结构, 如图1所示。 -多层感知器是一种前饋神经网络, 由输入层、输出层和 若干中间层(常称为隐层,hidden-layer )组成 - 多层感知器的每一层包括若干个节点 (node) 或神经元 (neuron), 如图2;神经元是人工神经网络的基本单元.
∑ 图2 图1
式中 :前一层(第l-1层)第i个神经元的输出信号 : 第l-1层中第i个神经元到第l层中第j个神经元的连接权值 :加到第l层中第j个神经元的偏置(bias)即阀值 :第l层神经元的数目(N0表示输入层的神经元数目) : xj(n)是输入向量(模式)x(n)的第j个元素 :oj(n)是输出向量(模式)o(n)的第j个元素 神经网络模型及其训练 • 神经网络模型 1. 多层感知器 • 神经元:如图;第l 层中第j个神经元的如下输入-输出关系: 其中 L、L+1: 分别为MLP的级数和层数
神经网络模型及其训练 1. 多层感知器 激活函数 • 神经网络模型 - S型函数: 其变化范围为 ; 其导数为 - 正切双曲函数: 其导数为
神经网络模型及其训练 2. 径向基函数网络(RBFN:Radial basis function nets) RBFN的结构: 它是另一种形式的前馈网络, 如图3。 RBFN与MLP的主要差别 - RBF网络是单隐层的网络,而 MLP可以有一个或多个隐层 - RBFN是一个局部逼近器,而MLP是一个全局逼近器。 -RBF网络比单层感知器网络具有更强的功能; 当中心向量 xi确定后, RBF网络只需对输出层进行修正(更新),因此比 MLP网络具有更快的敛速, 是一种非常有效的前饋网络。 • 神经网络模型
神经网络模型及其训练 2. 径向基函数网络 RBFN与MLP的主要差别(续) - 表征RBF网络隐单元的核(基函数)一般定义为高斯函数: • 神经网络模型 式中x 是输入向量, xi是第i单元的中心。由M个隐单元RBF 网络实现的输入输出映射定义为 而表征MLP网络隐单元的核定义为logistic函数:
∑ ● ● ● ∑ 图3
神经网络模型及其训练 3. 自组织特征映射网络 (SOFM:Self-organization Feature map) • 神经网络模型 • 基本结构 图4表示用作离散映射的二维神经元格型结构的SOFM网 络,其中每个神经元全连接到输入层的所有源节点;它是一 个行-列排列的神经元组成的单层前饋网络,包括如下过程: • 基本过程 竞争过程(competitive process) 协作过程(cooperative process) 自适应过程(adaptive process), 它包括两个阶段: -自组织或排序阶段(dering phase) - 收敛阶段(convergence phase)
神经网络模型及其训练 • 动态神经网络 1. 基于MLP和RBF的时延神经网络(TDNN) TDNN和具有输出反馈的TDNN分别如图5和图6, 它们起到 如下非线性映射关系: • 神经网络模型 分别对应于非线性FIR和非线性IIR(即非线性MA和ARMA),其中F[]为非线性函数。当F[]为线性函数时,分别等效为一般的FIR和IIR滤波器。
y(n) MLP x(n) x(n-1)… x(n-p) x(n) LTD 图5 Z-1 MLP x(n) x(n-1)… x(n-p) y(n-q) y(n-2) y(n-1) x(n) LTD1 LTD2 图6
神经网络模型及其训练 • 动态神经网络 2.递归神经网络(recurrent networks) • 神经网络模型 -递归神经网络与前饋神经网络的区别在于:前者至少存在 一个反馈环路, 如图7。 -由于反馈的存在, 对网络学习能力及其性能有深刻的影响 Hopfild 网络 Hopfild网络能量函数[亦称为李雅普洛夫(Lyapunov)函数]为 或
单元延时 Z-1 Z-1 Z-1 Z-1 图7
神经网络模型及其训练 • 动态神经网络 2.递归神经网络(recurrent networks) • 神经网络模型 可以证明,E(t)函数总是单调下降的。因此,若E(t)有界, 则网络必定稳定,且稳定点对应能量函数的极小点。设 易知 则 式中 为单位增益神经元的反函数标准形式。
神经网络模型及其训练 • 训练规则 • 神经网络训练 Hebb学习规则(无师学习) 其中 “胜者为王” (Winner-Take-All)学习规则 (无师学习) 其中 δ学习规则(有师学习) 其中ε为代价函数。
神经网络模型及其训练 • 训练方法 1. MLP网络的训练 算法推导 考虑MLP网络的某一层,则某个时刻神经元j 的输出为 • 神经网络训练 其中 当神经元j为输出节点时, 该节点的误差信号定义为 此时神经元j 的误差能量定义为 ,总误差能量ε为输出 层所有神经元能量之和, 即
神经网络模型及其训练 1. MLP网络的训练 算法推导(续) -MLP网络的训练,可通过求解式(14)在式(11)的约束条 件下的约束优化问题获得。 - 设用δ规则调整该层的连接权W, 则需计算导数, 即 • 神经网络训练 其中局部梯度定义为 (16)
1. MLP网络的训练 算法推导(续) - 现考虑 的计算.由图10知,此时神经元k为输出节点,故有 神经网络模型及其训练 • 神经网络训练 于是 此时 因此 故(16)变为输出层: 隐层: 如图11所示。
1. MLP网络的训练 基本结论 - 由式(20)并参照图10易见, (20b)实现了误差从输出层(k)到隐层(j)的反向传播(BP), 它亦可实现隐层之间的反向传播。如图9和10所示。因此, 以式(20)为基础的MLP网络训练方法通常称为BP算法, 且把基于BP算法的MLP网络称为BP网络。 -容易看出,BP算法可看作LMS算法的推广, 而把LMS算法 看作BP算法的特例(当 即 ) 神经网络模型及其训练 • 神经网络训练
Vz … Wy … j k + 1 2 1 2
神经网络模型及其训练 1. MLP网络的训练 通用算法 ①初始化 a)给定输入-输出样本集 ,并选择 b)随机初始化所有连接权系数 ②前向计算:令 计算各层输出 • 神经网络训练
神经网络模型及其训练 1. MLP网络的训练 通用算法(续) ③反向计算 a)计算反向传播误差 • 神经网络训练 (对于输出层l=L) (22a) (对于隐层l=L-1,…,1) (22b) b)并调整连接权系数 其中 , 末项是动量项(momentum)
神经网络模型及其训练 1. MLP网络的训练 通用算法(续) ④计算误差: • 神经网络训练 ⑤迭代:返回②继续迭代,直到总误差小于给定容限。 变形:以上是批处理方式, 它适合于训练时所有P个样本集可用的情况。在可获得每个新的样本集的情况下,可采用逐个样本集训练的方式,这时式(23)和(24)分别变为 分别用(25)和(26)代替(23)(24)后, 对于②-④的迭代, 每一次都从p=1开始, 直做到p=P。
神经网络模型及其训练 2. SOFM网络的训练 初始化后, 算法实现中涉及三个基本步骤:取样、相似性匹配、 更新,重复这三个步骤直到特征映射完成为止。具体如下: ①初始化:随机选择互不相同的初始权向量 , j=1,,…,m, m是格型中神经元个数。 ②取样:以某种概率从输入空间提取样本向量x.该向量表示 加到格型结构的激活模式。向量x的维数为m。 ③竞争-相似性匹配:设i(x)表示与输入向量x最好匹配(赢)的 下标。通过最小距离欧氏准则找n次迭代的i(x): • 神经网络训练
神经网络模型及其训练 2. SOFM网络的训练(续) ④协作-求拓扑邻域:即求以赢单元为中心的邻域函数: • 神经网络训练 其中 为受激神经元j和赢神经元i的距离, 分别为其位置; 并计算 式中σ0、μ0是SOFM算法中的初始值, τ1和τ2是SOFM算法的时间常数。
神经网络模型及其训练 2. SOFM网络的训练(续) ⑤自适应-更新 (updating):利用如下更新公式调整所有神经元的连接权向量: • 神经网络训练 其中μ是学习速率参数。 ⑥迭代: 返回步骤②继续迭代, 直到特征映射没有显著变化 为止。
3. RBF网络的训练 中心向量的迭代 令为 第k次迭代RBF的中心,则k-平均聚类(k-means clustering)算法步骤如下: ①初始化:随机选择初始中心值 ②取样:以某种概率从输入空间X提取样本向量,并进入算 法的n次迭代。 ③相似匹配:设 表示与输入向量x最好匹配(赢)的下标,则 其中 是n次迭代第k个RBF的最小。 神经网络模型及其训练 • 神经网络训练
神经网络模型及其训练 3. RBF网络的训练(续) ④ 更新(updating):利用如下更新公式调整RBF的中心 • 神经网络训练 ⑤迭代:n增加1, 返回步骤②,直到中心 没有显著变化为止。 连接权的迭代过程 ① 初始化:随机初始化所有连接权。 ② 计算输出向量: 其中 为n时刻的输入向量, 为每个神经元 的中心向量,J 是隐层神经元的个数。
神经网络模型及其训练 3. RBF网络的训练(续) 连接权的迭代过程(续) ③计算每个输出神经元的误差: • 神经网络训练 ④调整连接权系数: 其中I是输出层神经元的个数, 是隐层神经元i与输出 层神经元j之间连接权。 ⑤计算总误差: 并返回步骤②迭代计算, 直到 误差小于给定值