目录
一:LeNet-5解析
1.网络结构
输入层:
1.conv1:
2.pool1层:
3.conv2:
4.pool2:
5.fc3,fc4:
6.output层:
2.参数形状
二:AlexNet
1层:
2层:
3层:
4 层
5 层
6 全连接层
7 全连接层
8 全连接层
三:卷积网络结构的优化:
1.常见结构特点:
2.引入Inception模块
1.Inception结构:
1.MLP卷积(1x1卷积)
2.1x1卷积介绍
3.通道数变化:
4.Inception层
5.Inception改进
三:卷积神经网络学习特征可视化
四:案例
1.获取模型数据
2.图片的输入以及格式转换
3.进行本地图片加载
4.使用模型对数据进行处理和预测
输出结果:
都看到这里了,点个赞把!!!!
一:LeNet-5解析
论文地址:http://yann.lecun.com/exdb/publis/pdf/lecun-98.pdf
1.网络结构
不知道卷积层的先去看我上两篇文章
图中:输入32*32*3数据,经过两个卷积网络得到一个400的数据,在经过一个两层神经网络输出十个类别
整个LeNet-5网络总共包括7层(不含输入层):conv1(卷积层)-pool1(池化层)-conv2-pool2-fc3(第一层神经网络)-fc4(第二层神经网络)-output(输出)
输入层:
输入一个32*32像素的图像,通道数为3
1.conv1:
卷积层,使用6个5*5大小的卷积核,padding=0,stride=1,得到6个28*28大小的特征图:32-5+1=28
2.pool1层:
池化层,使用6个2*2大小的卷积核进行池化,padding=0,stride=2,得到6个14*14带下的特征图:28/2=14
3.conv2:
同conv1一样的卷积层,但是这个使用的是16个5*5的卷积核
4.pool2:
同pool1一样的池化层,但是这个是使用16个2*2大小的卷积核
5.fc3,fc4:
全连接层:每个神经元都与前面卷积好的特征图相连接,计算输入向量和权重向量之间的点积,再加上偏置,然后再通过sortmax函数输出
6.output层:
最后的 Output 层也是全连接层,采用了softmax函数计算输入向量和参数向量之间的距离
激活层默认不画网络图中,整个网络图使用的是sigmoid和Tanh函数
将卷积,激活,池化视作一层
2.参数形状
二:AlexNet
AlexNet结构相对简单,使用了8层卷积神经网络,前五层是卷积层,剩下的3层是全连接层。
1层:
卷积层,基本结构为:卷积---ReLU---池化
1.卷积:输入277*277*3,96个11*11*3的卷积核,不扩充边缘padding=0,步长=4,所以FeatrueMap大小为(227-11+0*2+4)/4=55,即55*55*96
2.激活函数使用ReLU
3.池化:池化和大小为3*3,padding=0,步长为2。所以FeatureMap输出大小为:(55-3+0*2)/2=27,即第一层的输出为27*27*96(如果使用的是两个GPU,那么会将分成两组,每组27*27*48)
2层:
C2的基本结构为:卷积–>ReLU–>池化
1.卷积:输入27×27×96,256个5×5×96的卷积核,扩充边缘padding = 2, 步长stride = 1,因此其FeatureMap大小为(27-5+2×2+1)/1 = 27,即27×27×256;
2.激活函数:ReLU;
3.池化:池化核大小3 × 3,不扩充边缘padding = 0,步长stride = 2,因此其FeatureMap输出大小为(27-3+0+2)/2=13, 即C2输出为13×13×256(此处未将输出分到两个GPU中,若按照论文将分成两组,每组为13×13×128)
3层:
3的基本结构为:卷积–>ReLU。注意一点:此层没有进行MaxPooling操作。
卷积:输入13×13×256,384个3×3×256的卷积核, 扩充边缘padding = 1,步长stride = 1,因此其FeatureMap大小为(13-3+1×2+1)/1 = 13,即13×13×384;
激活函数:ReLU,即C3输出为13×13×384(此处未将输出分到两个GPU中,若按照论文将分成两组,每组为13×13×192);
4 层
4的基本结构为:卷积–>ReLU。注意一点:此层也没有进行MaxPooling操作。
卷积:输入13×13×384,384个3×3×384的卷积核, 扩充边缘padding = 1,步长stride = 1,因此其FeatureMap大小为(13-3+1×2+1)/1 = 13,即13×13×384;