什么是CNN(CNN的流行分析)
CNN的基础知识介绍,TensorFlow的具体实现,对于初学者或者求职者来说都是不可多得的素材。
定义:
简而言之,卷积神经 *** 是一种深度学习模型或类似于人工神经 *** 的多层感知器,常用于分析视觉图像。卷积神经 *** 的创始人是Yann LeCun,著名的计算机科学家,目前在脸书工作。他是之一个通过卷积神经 *** 解决MNIST数据集上手写数字问题的人。
扬·勒库恩
卷积神经 *** 的出现是受到生物治疗过程的启发,因为神经元之间的连接模式类似于动物的视觉皮层组织。
人脑的视觉结构
个别皮层神经元只在称为感受野的受限视野内对 *** 作出反应,不同神经元的感受野部分重叠,从而可以覆盖整个视野。
计算机视觉和人类视觉
如上图所示,我们在谈论任何类型的神经 *** 时,都不可能不提一点关于神经科学和人体(尤其是大脑)及其功能的知识,这些知识已经成为创建各种深度学习模型的主要灵感来源。
卷积神经 *** 的体系结构:
卷积神经 *** 体系结构
如上图所示,卷积神经 *** 架构与常规人工神经 *** 架构非常相似,尤其是在 *** 的最后一层,即全连接。此外,还需要注意的是,卷积神经 *** 可以接受多个特征图作为输入,而不是向量。
我们来探讨一下卷积神经 *** 的基本组成和相关的数学运算过程,根据训练过程中学到的特征和属性对图像进行可视化和分类。
输入层|输入层:
输入层主要是nm3 RGB图像,与人工神经 *** 不同,人工神经 *** 的输入是n1维向量。
RGB图像
卷积层|卷积层:
在卷积层中,计算输入图像的面积与滤波器的权重矩阵之间的点积,并将结果作为该层的输出。滤镜将滑过整个图像,并重复相同的点积操作。这里要注意两件事:
滤镜的通道数必须与输入图像的通道数相同;
*** 越深,使用的过滤器越多。您拥有的过滤器越多,您可以获得的边缘和特征检测就越多。
正向卷积运算
卷积层输出的大小:
输出宽度:
输出高度:
其中包括:
w:输入图像的宽度。
h:输入Youyou像的高度。
Fw:过滤器或核心的宽度
Fh:过滤器的高度
填充
生:移动的步伐
卷积层输出的通道数等于卷积操作期间使用的过滤器数。
为什么卷积?
有时候你可能会问自己,当初为什么要用卷积运算?为什么不从一开始就扩展输入图像矩阵?下面是答案。如果这样做,我们最终会得到很多需要训练的参数,而大多数人没有能力以最快的方式解决计算量大的任务。另外,由于卷积神经 *** 的参数较少,可以避免过拟合。
池层|池层:
目前广泛使用的池操作有两种——平均池和更大池,其中更大池是使用最多的一种,其效果一般比平均池好。Pool层用于降低卷积神经 *** 上特征空之间的维数,但不会降低深度。当使用更大池层时,采用更大数量的输入区域,而当使用平均池层时,采用输入区域的平均值。
更大汇集
为什么要打台球?
pooling layer的核心目标之一是提供空之间的方差,这意味着您或机器将能够识别该对象,即使它的外观以某种方式发生了变化。有关池层的更多信息,请查看Yann LeCunn的文章。
非线性层|非线性层:
在非线性层,一般用ReLU激活函数代替传统的Sigmoid或Tan-H激活函数。对于输入图像中的每个负值,ReLU激活函数返回值0,而对于输入图像中的每个正值,它返回相同的值(有关激活函数的更深入的解释,请查看本文)。
ReLU激活功能
全连接层}全连接层:
在全连接层中,我们将最后一个卷积尤优资源 *** 层的输出平坦化,并将当前层的每个节点与下一层的另一个节点连接起来。全层连接只是人工神经 *** 的另一种说法,如下图所示。整个连接层中的操作与一般人工神经 *** 中的操作完全相同:
本文地址:百科常识频道 https://www.neebe.cn/changshi/947853.html,易企推百科一个免费的知识分享平台,本站部分文章来网络分享,本着互联网分享的精神,如有涉及到您的权益,请联系我们删除,谢谢!