一、亮点

AlexNet、VGG都只有一个输出层。googlenet有三个(其中两个是辅助分类层)

二、先看看Inception结构
1、Inception
之前的网络:
AlexNet、VGG都是串行结构
Inception:
并行结构
上一层的输出同时传入四个并行结构:
得到四个特征矩阵
而后按深度进行拼接、得到输出层

注意:每一个分支所得到的特征矩阵必须高纬度和宽维度相同
2、Inception+降维

多了三个1×1的卷积层
起到降维作用
3、1×1的降维作用:
不使用1×1卷积核降维:参数计算量

使用1×1降维计算量:

4、辅助分类器

第一层:
平均池化下采样
池化核大小5×5、步长为3、
两个分类器分别来自4a和4d。长宽一样但深度不同一个512、一个528.
根据计算公式

其中输入为14、池化核大小为5、padding为0
步长为3
得结果=14

因为池化不改变深度,所以输出为14×14×512
第二层
使用128个卷积核大小为1×1进行降维、并使用ReLU

第三层
采用节点个数为1024的全连接层、同样使用ReLU。

第四层
使用drop out 以70%的比例随机失活神经元
而后全连接层预测1000个类别( 因为ImageNet有1000个类别)
三、看googleNet详表



#n×n reduce代表 在n×n卷积层之前
加入一个降维处理的1×1卷积

对照 下图;
我们看到输入先是经过7×7/2的卷积、3×3/2的池化后
进入一个1×1的卷积和3×3的卷积
因此depth写了2

四、参数

模型参数少、准确率高
但是搭建太复杂了。
参考:https://blog.csdn.net/m0_37867091/article/details/107404735