在FaceNet 论文中,他们这样描述Zeiler&Fergus 模型:
[...] Zeiler&Fergus 模型,由多个交错的卷积层组成,[...]
他们所说的交错是什么意思?这与初始层相比如何?
特别是,正如 Zeiler&Fergus 的论文所述
我们在整篇论文中使用标准的全监督卷积网络模型,如 (LeCun et al., 1989) 和 (Krizhevsky et al., 2012) 所定义。
[...]
网络的前几层是传统的全连接网络,最后一层是 softmax 分类器。
在FaceNet 论文中,他们这样描述Zeiler&Fergus 模型:
[...] Zeiler&Fergus 模型,由多个交错的卷积层组成,[...]
他们所说的交错是什么意思?这与初始层相比如何?
特别是,正如 Zeiler&Fergus 的论文所述
我们在整篇论文中使用标准的全监督卷积网络模型,如 (LeCun et al., 1989) 和 (Krizhevsky et al., 2012) 所定义。
[...]
网络的前几层是传统的全连接网络,最后一层是 softmax 分类器。
牛津词典将“交错”解释为
在(某物)的层之间放置一些东西
或在电信的背景下,如
通过在它们之间交替来混合(数字信号)。
在FaceNet 论文中,Schroff等人。都将他们的第一个架构描述为
卷积、非线性激活、局部响应归一化和最大池化层的多个交错层
Conv -> Pool -> Conv -> Pool -> ..这意味着他们通过“更改”这些层类型(例如)来创建 CNN 。或者使用第一个定义的措辞,您将每种类型的一个层“放置在”其他现有层“之间”(即从几个Conv层开始,然后将层放置Pool在两个Conv层之间,依此类推)。最终的架构看起来有点像这样:
Conv -> ReLu -> LRN -> Pool -> Conv -> ReLu -> LRN -> Pool -> Conv -> ...
因此,这个“交错”的 CNN 是一个网络,其中不同的层类型被逐层逐层应用。作为比较,在“inception”类型的 CNN中,您并行应用不同的层类型(下图为 1 层):
+---> Conv 3x3 ---+
| |
prev layer ---+---> Conv 5x5 ---+---> next layer
| |
+---> Pool 3x3 ---+