小脑模型衔接控制器
目录
小脑模型衔接控制器
小脑模型运算计算机(CMAC)是一种基于哺乳动物小脑模型的神经网络。它也被称为小脑模型衔接控制器。它是一种联想记忆的类型。CMAC最早是由詹姆斯-阿尔伯斯在1975年提出的,作为机器人控制器的函数模型器(因此而得名),但已被广泛用于强化学习,也作为机器学习界的自动分类。CMAC是感知器模型的一个扩展。它计算出一个函数,用于输入维度。输入空间被划分为超矩形,每个超矩形都与一个存储单元相关。记忆单元的内容是权重,在训练期间进行调整。通常,输入空间的量化不止一个,因此,输入空间的任何一点都与若干超矩形相关,因此也与若干存储单元相关。CMAC的输出是由输入点激活的所有存储单元的权重的代数和。输入点数值的变化导致激活的超矩形集合的变化,因此参与CMAC输出的存储单元集合也发生了变化。因此,CMAC的输出是以分布式方式存储的,这样,对应于输入空间中任何一点的输出是由存储在一些存储单元中的值得出的(因此被称为关联存储器)。这就提供了概括性。
构建模块
在邻近的图像中,有两个输入到CMAC,表示为一个二维空间。两个量化函数被用来将这个空间划分为两个重叠的网格(其中一个以较重的线条显示)。靠近中间的是一个单一的输入,这激活了两个记忆单元,对应于阴影区域。如果另一个点出现在所显示的点附近,它将共享一些相同的记忆单元,提供泛化。训练CMAC的方法是提出成对的输入点和输出值,并根据在输出端观察到的误差的比例调整激活单元的权重。这种简单的训练算法有一个收敛性证明。在超矩形中加入一个核函数是很正常的,这样落在超矩形边缘的点就比落在中心附近的点有较小的激活作用。在CMAC的实际应用中,一个主要问题是所需的内存大小,这与所使用的单元的数量直接相关。这通常通过使用哈希函数来改善,并且只为被输入激活的实际单元提供内存存储。
单步收敛算法
最初的最小均值(LMS)方法被用来更新CMAC的权重。使用LMS来训练CMAC的收敛性对学习率很敏感,可能会导致发散。2004年,一种递归最小二乘法(RLS)被引入,用于在线训练CMAC。它不需要调整学习率。它的收敛性已经在理论上得到证明,并且可以保证在一个步骤内收敛。该RLS算法的计算复杂度为O(N3)。
硬件实现基础设施
基于QR分解,一个算法(QLS)被进一步简化为具有O(N)的复杂性。因此,这xxx减少了内存用量和时间成本。实现这一算法的并行流水线阵列结构已被引入。总的来说,通过利用QRLS算法,CMAC神经网络的收敛性可以得到保证,并且节点的权重可以通过一个训练步骤进行更新。它的并行管道阵列结构为其在硬件中实现大规模工业使用提供了巨大的潜力。
![小脑模型衔接控制器](http://map.s-jl.com/wp-content/uploads/sites/14/2024/09/20240928000833-66f74901c18d9.png)
连续CMAC
由于CMAC接收场函数的矩形形状产生了不连续的阶梯函数近似,通过将CMAC与B-splines函数集成,连续CMAC提供了获得近似函数的任何阶次导数的能力。
深度CMAC
近年来,大量研究证实,通过将几个浅层结构堆叠成一个深层结构,整个系统可以实现更好的数据表示,从而更有效地处理非线性和高复杂性的任务。2018年,提出了一个深度CMAC(DCMAC)框架,并推导出一个反向传播算法来估计DCMAC的参数。一个自适应噪声消除任务的实验结果表明,与传统的单层CMAC相比,提出的DCMAC可以实现更好的噪声消除性能。总结