在 Tensorflow 中使用深度可分离卷积

ChatGPT百科1年前 (2023)发布 wangzhan
1,095 0
ChatGPT国内版

纵观所有非常大的卷积神经网络,例如 ResNet、VGG 等,这就引出了一个问题:我们如何使用更少的参数使所有这些网络变得更小,同时仍然保持相同的精度水平,甚至提高泛化能力。模型使用较少的参数。一种方法是深度可分离卷积,也称为 TensorFlow 和 Pytorch 中的可分离卷积(不要与空间可分离卷积混淆,空间可分离卷积也称为可分离卷积)。深度可分离卷积由 Sifre 在“用于图像分类的刚性运动散射”中引入,并已被流行的模型架构(例如 MobileNet 和 Xception 中的类似版本)采用。

在本教程中,我们将了解什么是深度可分离卷积以及如何使用它们来加速我们的卷积神经网络图像模型。

完成本教程后,您将学到:

  • 什么是深度、逐点、深度可分离卷积
  • 如何在 Tensorflow 中实现深度可分离卷积
  • 将它们用作我们计算机视觉模型的一部分

让我们开始吧!

在 Tensorflow 中使用深度可分离卷积

概述

本教程分为 3 部分:

  • 什么是深度可分离卷积
  • 为什么它们有用
  • 在计算机视觉模型中使用深度可分离卷积

什么是深度可分离卷积

在深入研究深度方向和深度可分离卷积之前,快速回顾一下卷积可能会有所帮助。图像处理中的卷积是在体积上应用内核的过程,其中我们使用权重作为内核的值对像素进行加权和。视觉上如下:

在 Tensorflow 中使用深度可分离卷积

在 10x10x3 上应用 3×3 内核会输出 8x8x1 体积

现在,我们来介绍深度卷积。深度卷积基本上是仅沿着图像的一个空间维度的卷积。从视觉上看,这就是单个深度卷积滤波器的外观和功能:

在 Tensorflow 中使用深度可分离卷积

3x3在此示例中,在绿色通道上应用深度内核

普通卷积层和深度卷积之间的主要区别在于,深度卷积仅沿一个空间维度(即通道)应用卷积,而普通卷积在每一步都应用于所有空间维度/通道。

如果我们看看整个深度层在所有 RGB 通道上的作用,

在 Tensorflow 中使用深度可分离卷积

10x10x3对输入体积输出8x8x3体积应用深度卷积滤波器

请注意,由于我们为每个输出通道应用一个卷积滤波器,因此输出通道的数量等于输入通道的数量。应用深度卷积层后,我们再应用逐点卷积层。

简单地说,逐点卷积层是具有内核的常规卷积层1x1(因此查看所有通道上的单个点)。从视觉上看,它看起来像这样:

在 Tensorflow 中使用深度可分离卷积

10x10x3对输入体积应用逐点卷积10x10x1输出输出体积

为什么深度可分离卷积有用?

现在,您可能想知道,使用深度可分离卷积进行两个操作有什么用?鉴于本文的标题是加速计算机视觉模型,那么执行两项操作而不是一项操作如何有助于加快速度?

为了回答这个问题,让我们看看模型中的参数数量(尽管进行两次而不是一次卷积会产生一些额外的开销)。假设我们想要对 RGB 图像应用 64 个卷积滤波器,以便在输出中拥有 64 个通道。普通卷积层的参数数量(包括偏差项)为$3 \times 3 \times 3 \times 64 + 64 = 1792$。另一方面,使用深度可分离卷积层只会有 $(3 \times 3 \times 1 \times 3 + 3) + (1 \times 1 \times 3 \times 64 + 64) = 30 + 256 = 286 $ 参数,这是一个显着的减少,深度可分离卷积的参数不到普通卷积的 6 倍。3×3×3×64+64=1792年。另一方面,使用深度可分离卷积层只会有3×3×1×3+3+1×1×3×64+64=30+256=第286章  参数,这是一个显着的减少,深度可分离卷积的参数不到普通卷积的 6 倍。

这有助于减少计算和参数的数量,从而减少训练/推理时间,并有助于分别规范我们的模型。

让我们看看实际情况。对于我们的输入,我们使用 CIFAR10 图像数据集32x32x3

然后,我们实现一个深度可分离卷积层。Tensorflow 中有一个实现,但我们将在最后一个示例中进行讨论。

使用深度可分离卷积层构建模型并查看参数数量,

这给出了输出

我们可以将其与使用常规 2D 卷积层的类似模型进行比较,

这给出了输出

这证实了我们对之前完成的参数数量的初步计算,并显示了通过使用深度可分离卷积可以实现的参数数量的减少。

您现在可能会想,但它们为什么有效?

Chollet 的 Xception 论文中的一种思考方式是,深度可分离卷积假设我们可以单独映射跨通道和空间相关性。鉴于此,卷积层中将存在一堆冗余权重,我们可以通过将卷积分为深度分量和逐点分量的两个卷积来减少这些冗余权重。对于熟悉线性代数的人来说,思考这个问题的一种方法是,当矩阵中的列向量互为倍数时,我们如何能够将矩阵分解为两个向量的外积。

在计算机视觉模型中使用深度可分离卷积

现在我们已经看到了通过在普通卷积滤波器上使用深度可分离卷积可以实现的参数减少,让我们看看如何在实践中与 Tensorflow 的滤波器一起使用它SeparableConv2D

对于本示例,我们将使用上例中使用的 CIFAR-10 图像数据集,而对于模型,我们将使用基于 VGG 块构建的模型。深度可分离卷积的潜力在于更深的模型,其中正则化效果对模型更有利,并且相对于 LeNet-5 等更轻的权重模型,参数的减少更明显。

使用 VGG 块和普通卷积层创建我们的模型,

然后我们看看这个带有普通卷积层的6层卷积神经网络的结果,

让我们尝试相同的架构,但用 KerasSeparableConv2D层替换普通的卷积层:

运行上面的代码给我们结果:

请注意,深度可分离卷积版本中的参数明显较少(~200k vs~1.2m 参数),并且每个周期的训练时间略短。深度可分离卷积更有可能在可能面临过拟合问题的更深模型上以及在具有较大内核的层上工作得更好,因为参数和计算量的减少更大,这将抵消进行两次卷积而不是一次卷积的额外计算成本。接下来,我们绘制两个模型的训练和验证以及准确性,以查看模型训练性能的差异:

 

在 Tensorflow 中使用深度可分离卷积

具有普通卷积层的网络的训练和验证准确性

在 Tensorflow 中使用深度可分离卷积

具有深度可分离卷积层的网络的训练和验证准确性

两种模型的最高验证精度相似,但深度可分离卷积似乎对训练集的过度拟合较少,这可能有助于它更好地推广到新数据。

将所有代码组合在一起以获得模型的深度可分离卷积版本,

 

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...