yabo网页版 CNN-卷积神经网络CNN插图的三个核心思想

日期:2021-03-25 18:51:36 浏览量: 148

生动地说,就是模仿你的眼睛。想一想。当您看事物时,您的眼睛只聚焦在相对较小的部分上,对吗?严格来说,在普通的多层感知器中,隐藏层节点完全连接到图像的每个像素,而在卷积神经网络中,每个隐藏层节点仅连接到图像的足够小的部分。因此,权重参数需要要训​​练的人大大减少了。

对于1000 * 1000的输入图像,如果下一个隐藏层中的神经元数量为106,则在完全连接时有1000 * 1000 * 106 = 1012权重参数。如此大量的参数几乎很难训练;但是通过局部连接,隐藏层中的每个神经元仅连接到图像中的10 * 10局部图像,此时权重参数的数量为10 * 10 * 106 = 108,将直接减少4幅值。

如下图所示,左侧是每个像素的完整连接,右侧是每两个像素的每条线作为本地连接,因此就数量而言,权重参数的数量要少得多(每个连接和每条线都需要有一个权重参数暴龙电竞 ,如果您特别忘记的话,可以查看单个[神经元模型]。因此,局部感知是:

通过卷积操作cnn卷积神经网络的优点,完全连接成为本地连接,因为多层网络可以提取高阶统计特征,即使该网络是本地连接,由于额外的突触连接和额外的神经交互作用,网络可以在不太严格的意义上获得全球关系。

cnn卷积神经网络代码_cnn卷积神经网络的优点_cnn卷积神经网络 优化

卷积神经网络CNN图解

让我们仔细研究一下本地感知如何使完整的连接变成本地连接。根据人工神经网络的方法,在排列输入图像的像素之后,每个像素值是一个神经元输入。完全连接隐藏层或输出层凤凰彩票登录 ,如上图左侧所示。在卷积神经网络引入了卷积的概念之后,卷积核通过原始图像,然后卷积核对原始图像中满足卷积核大小的像素执行加权求和。每次只对满足卷积核的图像像素进行卷积。 ,这是局部感知的概念,它使完全连接成为局部连接。

卷积神经网络CNN图解

2. 2体重分配

尽管局部感知将计算量减少了几个数量级,但是权重参数的数量仍然很大。可以进一步减少吗?方法是重量共享。

权重共享:不同的图像或同一图像共享一个卷积核,从而减少了重复的卷积核。相同的特征可能出现在同一张图像中,并且共享的卷积内核可以进一步减少权重参数。

如下图所示,为了找到鸟嘴,激活函数A需要检测图像左侧是否有鸟嘴,而另一个激活函数B需要检测是否存在鸟嘴。另一个图像中间有一个类似的鸟嘴。实际上,所有鸟喙都可以具有相同的特性,并且仅需要一个激活函数C。此时,可以共享相同的权重参数(即卷积内核)。

卷积神经网络CNN图解

如果使用权重共享(通常使用卷积核)cnn卷积神经网络的优点,则可以大大减少卷积核的数量,并可以加快计算速度。用户界面。

卷积神经网络CNN图解

例如,在本地连接中,隐藏层中的每个神经元都连接到10 * 10本地图像,因此存在10 * 10权重参数,并且这10 * 10权重参数与其余神经元共享,也就是说凤凰彩票主页 ,隐藏层中的106个神经元的权重参数是相同的。此时,无论隐藏层中神经元的数量如何,需要训练的参数都是这10 * 10个权重参数(也就是卷积核的大小(也称为过滤器)。

尽管参数很少银河体育 ,但仍具有出色的性能。但是,以这种方式仅提取图像的一个特征。如果要提取更多特征,则需要添加多个卷积内核。不同的卷积内核可以在图像的不同映射下获取特征,这称为特征映射。如果有100个卷积核,则最终权重参数仅为100 * 100 = 104。此外,偏置参数b也被共享,并且同一滤波器共享一个。

cnn卷积神经网络 优化_cnn卷积神经网络的优点_cnn卷积神经网络代码

2. 3池化

在卷积神经网络中,不需要处理原始图像,但是可以使用某种“压缩”方法。这就是池化,也就是说,每次对原始图像进行卷积时,都会通过A下采样过程以减小图像的大小。

合并有什么好处?

1.这些统计特征可以具有较小的维数并减少计算量。

cnn卷积神经网络的优点_cnn卷积神经网络 优化_cnn卷积神经网络代码

2.不容易过拟合。如果参数太多yabo网页版 ,很容易导致过度拟合。

3.减小图像尺寸并提高计算速度。

如下图所示,原始图像为500 * 500图像。经过二次采样后,它变成一个250 * 250的图像。此操作的好处非常明显。尽管权重分配和部分连接后的图像权重参数已大大减少,但是计算量仍然很大,需要大量的计算时间,因此为了进一步减少计算量,所以增加了二次采样的概念,不仅减少了图像像素,还减少了计算时间。

卷积神经网络CNN图解