当前位置: 首页 > news >正文

公司想做个自己的网站怎么做的社群营销案例

公司想做个自己的网站怎么做的,社群营销案例,烟台免费网站建设,兰州做家教去哪个网站比较好🍨 本文为:[🔗365天深度学习训练营] 中的学习记录博客 🍖 原作者:[K同学啊 | 接辅导、项目定制] 要求: 根据 Pytorch 代码,编写出 TensorFlow 代码研究 DenseNet 与 ResNetV 的区别改进思路是…

 🍨 本文为:[🔗365天深度学习训练营] 中的学习记录博客
 🍖 原作者:[K同学啊 | 接辅导、项目定制]

要求:

  • 根据 Pytorch 代码,编写出 TensorFlow 代码
  • 研究 DenseNet 与 ResNetV 的区别
  • 改进思路是否可以迁移到其他地方

一、前言

        在计算机视觉领域,卷积神经网络(CNN)已经成为最主流的方法,比如GoogLenet,VGG-16,Incepetion等模型。CNN史上的一个里程碑事件是ResNet模型的出现,ResNet可以训练出更深的CNN模型,从而实现更高的准确度。ResNet模型的核心是通过建立前面层与后面层之间的“短路连接”进而训练出更深的CNN网络。

        DenseNet,它的基本思路与ResNet一致,但是它建立的是前面所有层与后面层的密集连接(dense connection),它的名称也是由此而来。DenseNet的另一大特色是通过特征在channel上的连接来实现特征重用(feature reuse)。这些特点让DenseNet在参数和计算成本更少的情形下实现比ResNet更优的性能。

二、设计理念

        相比ResNet,DenseNet提出了一个更激进的密集连接机制:即互相连接所有的层,具体来说就是每个层都会接受其前面所有层作为其额外的输入。

        图1为ResNet网络的残差连接机制,作为对比,图2为DenseNet的密集连接机制。可以看到,ResNet是每个层与前面的某层(一般是2~4层)短路连接在一起,连接方式是通过元素相加。而在DenseNet中,每个层都会与前面所有层在channel维度上连接(concat)在一起(即元素叠加),并作为下一层的输入。

        对于一个 L 层的网络,DenseNet共包含 \frac{L(L+1))}{2} 个连接,相比ResNet,这是一种密集连接。而且DenseNet是直接concat来自不同层的特征图,这可以实现特征重用,提升效率,这一特点是DenseNet与ResNet最主要的区别。

 图1:ResNet网络的短路连接机制(其中+代表的是元素级相加操作)

 图2:DenseNet网络的密集连接机制(其中c代表的是channel级连接操作)

        而对于DesNet,则是采用跨通道concat的形式来连接,会连接前面所有层作为输入,输入和输出的公式是Xl​=Hl​(X0​,X1​,...,Xl−1​)。这里要注意所有的层的输入都来源于前面所有层在channel维度的concat,用一张动图体会一下:

图3 DenseNet的前向过程 

 三、网络结构

图4 DenseNet的网络结构 

        CNN网络一般要经过Pooling或者stride>1的Conv来降低特征图的大小,而DenseNet的密集连接方式需要特征图大小保持一致。为了解决这个问题,DenseNet网络采用DenseBlock+Transition的结构,其中DenseBlock是包含很多层的模块,每个层的特征图大小相同,层与层之间采用密集连接方式。而Transition层是连接两个相邻的DenseBlock,并且通过Pooling使特征图大小降低。图5给出了DenseNet的网路结构,它共包含4个DenseBlock,各个DenseBlock之间通过Transition层连接在一起。

图5 采用DenseBlock+Transition的DenseNet网络 

         在DenseBlock中,各个层的特征图大小一致,可以在channel维度上连接。DenseBlock中的非线性组合函数 H ( ⋅ )的是BN + ReLU + 3x3 Conv的结构,如图所示。另外值得注意的一点是,与ResNet不同,所有DenseBlock中各个层卷积之后均输入k个特征图,即得到的特征图的channel数为k,或者说采用k个卷积核。k在DenseNet称为growth rate,这是一个超参数。一般情况下使用较小的k,就可以得到较佳的性能。

图6 DenseBlock中的非线性转换结构 

        由于后面层的输入会非常大,DenseBlock内部可以采用bottleneck层来减少计算量,主要是原有的结构中增加1x1 Conv,如图7所示,即 BN + ReLU + 1x1 Conv + BN + ReLU + 3x3 Conv,称为DenseNet-B结构。其中1x1 Conv得到4k个特征图,它起到的作用是降低特征数量,从而提升计算的效率。

图7 使用bottleneck层的DenseBlock结构 

        对于Transition层,它主要是连接两个相邻的DenseBlock,并且降低特征图大小。Transition层包括一个1x1的卷积和2x2的AvgPooling,结构为BN+ReLU+1x1Conv+2x2AvgPooling。另外,Transition层可以起到压缩模型的作用。

四、Tensorflow实现

1.代码

import tensorflow as tf
from tensorflow.keras import layers, models
from tensorflow import kerasdata_dir = "./data/bird_photos"
train_ds = tf.keras.preprocessing.image_dataset_from_directory(data_dir,validation_split=0.2,  # 分割数据集subset="training",  # 数据集类型seed=123,image_size=(224, 224),batch_size=32)val_ds = tf.keras.preprocessing.image_dataset_from_directory(data_dir,validation_split=0.2,  # 分割数据集subset="validation",  # 数据集类型seed=123,image_size=(224, 224),batch_size=32)class BottleNeck(keras.Model):def __init__(self, growth_rate, bn_size=4, dropout=0.3):super().__init__()self.bn1 = layers.BatchNormalization()self.relu = layers.Activation("relu"),self.conv1 = layers.Conv2D(filters=bn_size * growth_rate, kernel_size=(1, 1),strides=1, padding='same')self.bn2 = layers.BatchNormalization()self.conv2 = layers.Conv2D(filters=growth_rate, kernel_size=(3, 3),strides=1, padding='same')self.dropout = layers.Dropout(rate=dropout)self.listLayers = [self.bn1,self.relu,self.conv1,self.bn2,self.relu,self.conv2,self.dropout]def call(self, x):tem = xfor layer in self.listLayers.layers:x = layer(x)return layers.concatenate([tem, x], axis=-1)class Transition(tf.keras.Model):def __init__(self, growth_rate):super().__init__()self.bn1 = layers.BatchNormalization()self.relu = layers.Activation('relu')self.conv1 = layers.Conv2D(filters=growth_rate, kernel_size=(1, 1),strides=1, activation='relu', padding='same')self.pooling = layers.AveragePooling2D(pool_size=(2, 2), strides=2, padding='same')self.listLayers = [self.bn1,self.relu,self.conv1,self.pooling]def call(self, x):for layer in self.listLayers.layers:x = layer(x)return xclass DenseBlock(tf.keras.Model):def __init__(self, num_layer, growth_rate, bn_size=4, dropout=0.3, efficient=False):super().__init__()self.efficient = efficientself.listLayers = []if self.efficient:_x = tf.recompute_grad(BottleNeck(growth_rate, bn_size=bn_size, dropout=dropout))else:_x = BottleNeck(growth_rate, bn_size=bn_size, dropout=dropout)for _ in range(num_layer):self.listLayers.append(BottleNeck(growth_rate, bn_size=bn_size, dropout=dropout))def call(self, x):for layer in self.listLayers.layers:x = layer(x)return xclass DenseNet(tf.keras.Model):def __init__(self, num_init_feature, growth_rate, block_config, num_classes,bn_size=4, dropout=0.3, compression_rate=0.5, efficient=False):super().__init__()self.num_channels = num_init_featureself.conv = layers.Conv2D(filters=num_init_feature, kernel_size=7,strides=2, padding='same')self.bn = layers.BatchNormalization()self.relu = layers.Activation('relu')self.max_pool = layers.MaxPool2D(pool_size=3, strides=2, padding='same')self.dense_block_layers = []for i in block_config[:-1]:self.dense_block_layers.append(DenseBlock(num_layer=i, growth_rate=growth_rate,bn_size=bn_size, dropout=dropout, efficient=efficient))self.num_channels = compression_rate * (self.num_channels + growth_rate * i)self.dense_block_layers.append(Transition(self.num_channels))self.dense_block_layers.append(DenseBlock(num_layer=block_config[-1], growth_rate=growth_rate,bn_size=bn_size, dropout=dropout, efficient=efficient))self.avgpool = layers.GlobalAveragePooling2D()self.fc = tf.keras.layers.Dense(units=num_classes, activation=tf.keras.activations.softmax)def call(self, x):x = self.conv(x)x = self.bn(x)x = self.relu(x)x = self.max_pool(x)for layer in self.dense_block_layers.layers:x = layer(x)x = self.avgpool(x)return self.fc(x)model = DenseNet(num_init_feature=64,growth_rate=32,block_config=[6, 12, 24, 16],compression_rate=0.5,num_classes=4,dropout=0.0,efficient=True)x = tf.random.normal((1, 224, 224, 3))
for layer in model.layers:x = layer(x)print(layer.name, 'output shape:\t', x.shape)AUTOTUNE = tf.data.AUTOTUNEtrain_ds = train_ds.cache().shuffle(1000).prefetch(buffer_size=AUTOTUNE)
val_ds = val_ds.cache().prefetch(buffer_size=AUTOTUNE)
opt = tf.keras.optimizers.Adam(learning_rate=0.002, decay=0.01)model.compile(optimizer=opt,loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),metrics=['accuracy'])
epochs = 10
history = model.fit(train_ds, validation_data=val_ds, epochs=epochs)

2.输出

Found 565 files belonging to 4 classes.
Using 113 files for validation.
conv2d output shape:	 (1, 112, 112, 64)
batch_normalization output shape:	 (1, 112, 112, 64)
activation output shape:	 (1, 112, 112, 64)
max_pooling2d output shape:	 (1, 56, 56, 64)
dense_block output shape:	 (1, 56, 56, 256)
transition output shape:	 (1, 28, 28, 128)
dense_block_1 output shape:	 (1, 28, 28, 512)
transition_1 output shape:	 (1, 14, 14, 256)
dense_block_2 output shape:	 (1, 14, 14, 1024)
transition_2 output shape:	 (1, 7, 7, 512)
dense_block_3 output shape:	 (1, 7, 7, 1024)
global_average_pooling2d output shape:	 (1, 1024)
dense output shape:	 (1, 4)
Epoch 1/10
15/15 [==============================] - 83s 5s/step - loss: 2.5051 - accuracy: 0.4508 - val_loss: 37955.5703 - val_accuracy: 0.3186
Epoch 2/10
15/15 [==============================] - 75s 5s/step - loss: 1.1275 - accuracy: 0.6922 - val_loss: 3854.2537 - val_accuracy: 0.2301
Epoch 3/10
15/15 [==============================] - 78s 5s/step - loss: 0.6559 - accuracy: 0.7780 - val_loss: 794.8064 - val_accuracy: 0.3186
Epoch 4/10
15/15 [==============================] - 84s 6s/step - loss: 0.5599 - accuracy: 0.7926 - val_loss: 94.6405 - val_accuracy: 0.2655
Epoch 5/10
15/15 [==============================] - 74s 5s/step - loss: 0.7278 - accuracy: 0.7682 - val_loss: 45.8066 - val_accuracy: 0.3186
Epoch 6/10
15/15 [==============================] - 74s 5s/step - loss: 0.3567 - accuracy: 0.8904 - val_loss: 16.1634 - val_accuracy: 0.3186
Epoch 7/10
15/15 [==============================] - 74s 5s/step - loss: 0.2239 - accuracy: 0.9287 - val_loss: 10.3661 - val_accuracy: 0.3186
Epoch 8/10
15/15 [==============================] - 75s 5s/step - loss: 0.1488 - accuracy: 0.9406 - val_loss: 1.8957 - val_accuracy: 0.5044
Epoch 9/10
15/15 [==============================] - 75s 5s/step - loss: 0.1024 - accuracy: 0.9630 - val_loss: 1.1245 - val_accuracy: 0.6018
Epoch 10/10
15/15 [==============================] - 76s 5s/step - loss: 0.0563 - accuracy: 0.9895 - val_loss: 1.2219 - val_accuracy: 0.5133

        具体代码细节在之前的文章中已有涉及,故不再做具体解释。

http://www.hrbkazy.com/news/25523.html

相关文章:

  • 做网站需要学什么专业seoaoo
  • 网站建设 中企动力宜昌成都营销推广公司
  • 江苏做网站xlec万网注册域名
  • 基层政权和社区建设司网站google搜索引擎免费入口
  • 怎样制作自己的网站网站备案
  • 小程序云开发收费360seo关键词优化
  • 做视频网站 带宽多少才合适网文推广怎么做
  • 做网站需要哪些东西和步骤360建站官网
  • b2b平台网站功能市场营销师报名官网
  • 自己做考试题目网站手机百度下载app
  • 濮阳网站建设价格seo网站推广批发
  • 建设网站包括哪些百度竞价教程
  • 自己电脑怎么做网站晋城今日头条新闻
  • 苏州企业网站设计搜索引擎优化代理
  • 宁波seo网站建设费用搜索优化是什么意思
  • 市体育局网站 两学一做北京seo多少钱
  • 网站开发与应用论文产品关键词大全
  • 旅游网站建设规划百度推广官网
  • 政法网站内容建设微信营销软件排行榜
  • 高速公路建设管理局网站网易最新消息新闻
  • wordpress 移动到回收站发生错误网络营销的未来发展趋势
  • 贵州快速整站优化宁波网站建设公司
  • 独立网站怎么做推广设计培训班学费一般多少
  • 微信公众号微网站怎么建设关键词搜索排名优化
  • 白云电子商务网站建设内容营销平台有哪些
  • 美区国区家庭共享搜索引擎优化的含义和目标
  • wordpress 翻页没内容甲马营seo网站优化的
  • 网站接入变更skr搜索引擎入口
  • 网站国内服务器租用百度关键词关键词大全
  • 设计网站栏目seo 视频