当前位置: 代码网 > it编程>游戏开发>ar > TensorFlow系列:第三讲:MobileNetV2使用介绍

TensorFlow系列:第三讲:MobileNetV2使用介绍

2024年08月03日 ar 我要评论
MobileNetV2 是由 Google 在 2018 年发布的一种轻量级深度神经网络架构,旨在优化移动设备和嵌入式设备上的图像分类和其他视觉任务的性能。它是 MobileNet 系列的第二代改进版本,相较于 MobileNetV1,引入了新的层类型和架构改进,显著提升了模型的准确性和效率。1. 主要特性和创新点深度可分离卷积(Depthwise Separable Convolutions):延续了 MobileNetV1 的设计,通过深度可分离卷积来减少参数量和计算量。

使用tensorflow官方提供的api进行模型训练,keras系列api中,存在很多算法,使用mobilenetv2进行讲解。

一. mobilenetv2简介

mobilenetv2 是由 google 在 2018 年发布的一种轻量级深度神经网络架构,旨在优化移动设备和嵌入式设备上的图像分类和其他视觉任务的性能。它是 mobilenet 系列的第二代改进版本,相较于 mobilenetv1,引入了新的层类型和架构改进,显著提升了模型的准确性和效率。

1. 主要特性和创新点
深度可分离卷积(depthwise separable convolutions):

延续了 mobilenetv1 的设计,通过深度可分离卷积来减少参数量和计算量。深度可分离卷积将标准卷积分解为深度卷积和逐点卷积两个步骤,极大地减少了计算成本。

线性瓶颈(linear bottlenecks):

引入了线性瓶颈层,在每个模块的输入和输出使用低维线性空间。这有助于减少模型复杂度和计算量,同时避免信息丢失。

倒残差结构(inverted residuals):

引入了倒残差结构,与 resnet 中的残差模块相反,mobilenetv2 中的残差连接在高维卷积层而不是低维层之间进行。
倒残差块结构通过扩展-深度卷积-压缩的过程来捕获更多的信息。

2. 架构细节

mobilenetv2 的架构由一系列倒残差块和普通卷积层组成:

conv2d:初始标准卷积层,通常使用 3x3 卷积核。
bottleneck residual blocks:包含扩展、深度可分离卷积和线性压缩。
每个瓶颈块通常包括:1x1 卷积(扩展通道数) -> 3x3 深度卷积 -> 1x1 卷积(压缩通道数)。
引入 relu6 激活函数用于非线性变换。
全局平均池化(global average pooling):将所有的空间维度平均化。
全连接层(fully connected layer):输出最终的分类结果。

3. 优点

高效性:大幅减少了参数和计算量,非常适合资源受限的移动和嵌入式设备。
模块化设计:灵活性高,可以根据不同任务和需求进行调整和裁剪。
较高准确性:在保持计算效率的同时,提供了与更复杂模型相近的分类准确性。

二. 核心api介绍

简单示例代码:

import keras
from keras import layers

# 构建 mobilenet 模型
base_model = keras.applications.mobilenetv2((224, 224, 3), include_top=false)
# 将模型的主干参数进行冻结
base_model.trainable = false
model = keras.sequential([
    # 归一化处理
    layers.rescaling(1. / 127.5, offset=-1, input_shape=(224, 224, 3)),
    # 设置主干模型
    base_model,
    # 对主干模型的输出进行全局平均池化
    layers.globalaveragepooling2d(),
    # 通过全连接层映射到最后的分类数目上
    layers.dense(10, activation='softmax')
])

1. keras介绍

keras 是一个高级神经网络 api,用 python 编写,能够运行在 tensorflow、theano 和 cntk 等多个深度学习框架之上。它由 françois chollet 开发,旨在实现快速实验,支持快速构建和训练深度学习模型。keras 的主要优势包括易用性、模块化和可扩展性,使其成为研究人员和开发人员构建和测试深度学习模型的流行选择。

2. layers介绍

在 keras 中,layers 是神经网络的基本构建块。每一个层将输入数据转换为输出数据,并包含可训练的权重。keras 提供了多种类型的层,用于构建不同类型的神经网络,包括全连接层、卷积层、池化层、循环层等。

3. mobilenetv2参数介绍

  • input_shape: 输入图像的形状,默认是 (224, 224, 3)。
  • alpha: 控制网络的宽度。alpha 的取值在 (0, 1] 之间。例如,当 alpha=1.0 时,表示使用原始网络宽度;当alpha=0.5 时,表示将网络每一层的滤波器数量减半。
  • depth_multiplier: 控制深度可分离卷积的深度(默认值为 1)。
  • include_top: 是否包含网络的顶层全连接层。默认值是 true,用于包含顶层全连接层;设置为 false,可以在迁移学习中使用。
  • weights: 指定预训练权重,选项包括 none(随机初始化权重),‘imagenet’(使用在 imagenet 上训练的权重)。
  • input_tensor: 可选的 keras 张量(即输出为模型输入的层),用于作为模型的输入。
  • pooling: 当 include_top 设置为 false 时,该参数指定模型的全局池化模式。选项包括: none:不应用额外的全局池化。 ‘avg’: 全局平均池化。 ‘max’: 全局最大池化。
  • classes: 分类数,即输出的神经元数量(只在 include_top=true 时有用)。
  • classifier_activation: 顶层分类器的激活函数。默认值是 ‘softmax’。设置为 none 时,返回原始 logits。

4.rescaling(1. / 127.5, offset=-1, input_shape=(224, 224, 3))

假设输入数据的像素值范围是 [0, 255],则经过这个 rescaling 层后,这样就可以将输入数据从 [0, 255] 范围归一化到 [-1, 1] 范围。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com