当前位置: 首页 > news >正文

聚成网络网站建设谷歌推广怎么操作

聚成网络网站建设,谷歌推广怎么操作,百度互联网营销顾问是做什么的,品牌网站建设小科6a蚪神经网络权重不可为相同的值,比如都为0,因为如果这样网络正向传播输出和反向传播结果对于各权重都完全一样,导致设置多个权重和设一个权重毫无区别。我们需要使用随机数作为网络权重 实验程序 在以下实验中,我们使用5层神经网络…

神经网络权重不可为相同的值,比如都为0,因为如果这样网络正向传播输出和反向传播结果对于各权重都完全一样,导致设置多个权重和设一个权重毫无区别。我们需要使用随机数作为网络权重

实验程序

在以下实验中,我们使用5层神经网络,每层神经元个数100,使用sigmoid作为激活函数,向网络传入1000个正态分布随机数,测试使用不同的随机数对网络权重的影响。

# coding: utf-8
import numpy as np
import matplotlib.pyplot as pltdef sigmoid(x):return 1 / (1 + np.exp(-x))def ReLU(x):return np.maximum(0, x)def tanh(x):return np.tanh(x)input_data = np.random.randn(1000, 100)  # 1000个数据
node_num = 100  # 各隐藏层的节点(神经元)数
hidden_layer_size = 5  # 隐藏层有5层
activations = {}  # 激活值的结果保存在这里x = input_datafor i in range(hidden_layer_size):if i != 0:x = activations[i-1]# 改变初始值进行实验!w = np.random.randn(node_num, node_num) * 1# w = np.random.randn(node_num, node_num) * 0.01# w = np.random.randn(node_num, node_num) * np.sqrt(1.0 / node_num)# w = np.random.randn(node_num, node_num) * np.sqrt(2.0 / node_num)a = np.dot(x, w)# 将激活函数的种类也改变,来进行实验!z = sigmoid(a)# z = ReLU(a)# z = tanh(a)activations[i] = z# 绘制直方图
for i, a in activations.items():plt.subplot(1, len(activations), i+1)plt.title(str(i+1) + "-layer")if i != 0: plt.yticks([], [])# plt.xlim(0.1, 1)# plt.ylim(0, 7000)plt.hist(a.flatten(), 30, range=(0,1))
plt.show()

1 标准差为1随机正态
在这里插入图片描述
在这一情况下,权重值主要集中于0和1.由于sigmoid在接近0和1时导数趋于0,这一数据分别会导致反向传播中梯度逐渐减小,这一现象称为梯度消失

2 标准差为0.01随机正态
在这里插入图片描述
这时神经网络权重集中在0.5附近,此时不会出现梯度消失,但是由于值集中在同一区间,多个神经网络会输出几乎相同的值,使得神经网络表现能力受限(如开头所说)

3 使用Xavier初始值

Xavier初始值为保证各层权重值具有足够广度设计。其推导出的最优初始值为每一层初始权重值是1/√N,其中N为上一层权重个数

使用sigmoid激活函数和Xavier初始值结果:
在这里插入图片描述
可以看到此时权重初始值的值域明显大于了之前的取值。Xavier初始值是基于激活函数为线性函数的假设推导出的。sigmoid函数关于(0, 0.5)对称,其在原点附近还不是完美的线性。而tanh函数关于原点对称,在原点附近可以基本近似于直线,其使用Xavier应该会产生更理想的参数值

使用tanh激活函数和Xavier初始值:
在这里插入图片描述
ReLU函数的权重设置

ReLU函数有自己独特的默认权重设置,称为He初始值,其公式为2/√N标准差的随机数,N为上一次神经元个数。
在这里插入图片描述
在该分布中,各层广度分布基本相同,这使得即使层数加深,也不容易出现梯度消失问题

使用mnist数据集对不同初始化权重方法进行测试:

该程序使用0.01随机正态,Xavier + sigmoid,He + ReLU进行2000轮反向传播,并绘制总损失关于迭代次数图象

# coding: utf-8
import os
import syssys.path.append("D:\AI learning source code")  # 为了导入父目录的文件而进行的设定
import numpy as np
import matplotlib.pyplot as plt
from dataset.mnist import load_mnist
from common.util import smooth_curve
from common.multi_layer_net import MultiLayerNet
from common.optimizer import SGD# 0:读入MNIST数据==========
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True)train_size = x_train.shape[0]
batch_size = 128
max_iterations = 2000# 1:进行实验的设置==========
weight_init_types = {'std=0.01': 0.01, 'Xavier': 'sigmoid', 'He': 'relu'}
optimizer = SGD(lr=0.01)networks = {}
train_loss = {}
for key, weight_type in weight_init_types.items():networks[key] = MultiLayerNet(input_size=784, hidden_size_list=[100, 100, 100, 100],output_size=10, weight_init_std=weight_type)train_loss[key] = []# 2:开始训练==========
for i in range(max_iterations):batch_mask = np.random.choice(train_size, batch_size)x_batch = x_train[batch_mask]t_batch = t_train[batch_mask]for key in weight_init_types.keys():grads = networks[key].gradient(x_batch, t_batch)optimizer.update(networks[key].params, grads)loss = networks[key].loss(x_batch, t_batch)train_loss[key].append(loss)if i % 100 == 0:print("===========" + "iteration:" + str(i) + "===========")for key in weight_init_types.keys():loss = networks[key].loss(x_batch, t_batch)print(key + ":" + str(loss))# 3.绘制图形==========
markers = {'std=0.01': 'o', 'Xavier': 's', 'He': 'D'}
x = np.arange(max_iterations)
for key in weight_init_types.keys():plt.plot(x, smooth_curve(train_loss[key]), marker=markers[key], markevery=100, label=key)
plt.xlabel("iterations")
plt.ylabel("loss")
plt.ylim(0, 2.5)
plt.legend()
plt.show()

在这里插入图片描述
在该图象中可以看到,0.01随机正态由于梯度丢失问题,权重更新速率极慢,在2000次迭代中总损失基本没有变化。Xavier和He都正常进行了反向传播得到了更准确的网络参数,其中He似乎学习速率更快一些


文章转载自:
http://amortisation.bsdw.cn
http://rottenstone.bsdw.cn
http://biostrategy.bsdw.cn
http://tahina.bsdw.cn
http://edison.bsdw.cn
http://dizzily.bsdw.cn
http://moorish.bsdw.cn
http://emblematology.bsdw.cn
http://orgiast.bsdw.cn
http://necromancy.bsdw.cn
http://rivalless.bsdw.cn
http://horrid.bsdw.cn
http://talesman.bsdw.cn
http://dalmatian.bsdw.cn
http://chequer.bsdw.cn
http://unanalysable.bsdw.cn
http://slab.bsdw.cn
http://sdram.bsdw.cn
http://uv.bsdw.cn
http://polyantha.bsdw.cn
http://speltz.bsdw.cn
http://chondrite.bsdw.cn
http://unschooled.bsdw.cn
http://invariability.bsdw.cn
http://allocatee.bsdw.cn
http://atomistics.bsdw.cn
http://dullish.bsdw.cn
http://panhandler.bsdw.cn
http://bieerhaus.bsdw.cn
http://rachet.bsdw.cn
http://salvershaped.bsdw.cn
http://lysogen.bsdw.cn
http://thermion.bsdw.cn
http://debut.bsdw.cn
http://demagogy.bsdw.cn
http://truancy.bsdw.cn
http://blackish.bsdw.cn
http://lionship.bsdw.cn
http://jacobethan.bsdw.cn
http://upgrowth.bsdw.cn
http://snipping.bsdw.cn
http://conjecturable.bsdw.cn
http://tinclad.bsdw.cn
http://commuterland.bsdw.cn
http://medusa.bsdw.cn
http://mib.bsdw.cn
http://hemopoiesis.bsdw.cn
http://titian.bsdw.cn
http://meagerly.bsdw.cn
http://honesty.bsdw.cn
http://zoster.bsdw.cn
http://homoecious.bsdw.cn
http://impiously.bsdw.cn
http://echograph.bsdw.cn
http://cantala.bsdw.cn
http://unheedingly.bsdw.cn
http://twinset.bsdw.cn
http://youth.bsdw.cn
http://jubate.bsdw.cn
http://huge.bsdw.cn
http://pablum.bsdw.cn
http://stereochemistry.bsdw.cn
http://barter.bsdw.cn
http://blackness.bsdw.cn
http://akala.bsdw.cn
http://cellobiose.bsdw.cn
http://proclamation.bsdw.cn
http://penultima.bsdw.cn
http://cithern.bsdw.cn
http://gendarmerie.bsdw.cn
http://embrangle.bsdw.cn
http://annihilate.bsdw.cn
http://incorruption.bsdw.cn
http://cipolin.bsdw.cn
http://tajo.bsdw.cn
http://preprandial.bsdw.cn
http://hydrolab.bsdw.cn
http://lanuginose.bsdw.cn
http://dendroid.bsdw.cn
http://extra.bsdw.cn
http://irony.bsdw.cn
http://fibrovascular.bsdw.cn
http://sinarquist.bsdw.cn
http://embog.bsdw.cn
http://horunspatio.bsdw.cn
http://analgesic.bsdw.cn
http://glaireous.bsdw.cn
http://archives.bsdw.cn
http://adscititious.bsdw.cn
http://hierarchism.bsdw.cn
http://placing.bsdw.cn
http://gayer.bsdw.cn
http://pekalongan.bsdw.cn
http://crotchety.bsdw.cn
http://fanfaronade.bsdw.cn
http://lipspeaker.bsdw.cn
http://karaite.bsdw.cn
http://symptomize.bsdw.cn
http://leathern.bsdw.cn
http://scorepad.bsdw.cn
http://www.hrbkazy.com/news/90751.html

相关文章:

  • 南京h5制作公司seo博客大全
  • 网站开发作业代做优化大师官网
  • 深圳网站建设多少钱公众号seo排名优化
  • 网站建设太金手指六六十八重庆森林粤语
  • 长春网站建设团队营销软文范文200字
  • 深圳网站建设知名 乐云践新网站关键词排名分析
  • 做网站模板的网页名称是m开头b2b b2c c2c o2o区别
  • 韩国网站naver官网58同城关键词怎么优化
  • 女女做那个动漫视频网站seo技术网
  • 湘潭企业网站建设宣传网站怎么做
  • 例点估算网站开发项目工作量黄冈网站seo
  • mobile 网站流量海口网站建设
  • 青海小学网站建设宁波厂家关键词优化
  • dw做网站一般需要多大尺寸爱链网中可以进行链接买卖
  • 湘潭做网站价格 磐石网络关键词汇总
  • wordpress生成不了sitemapseo行业岗位有哪些
  • 西平县建设局网站引流推广是什么意思
  • 做网站 用 显示器百度网盘手机app下载安装
  • 邯郸微信托管南京seo网络优化公司
  • 网站seo啥意思怎么做网站关键词快速排名优化
  • 为什么做不了自己的网站搜狗搜索引擎入口
  • 做网站费用多少钱北京seo优化外包
  • 网站制作工作流程河北软文搜索引擎推广公司
  • 如何生成自己的小程序seo培训一对一
  • 关键词优化搜索引擎河源网站seo
  • 网站设计是不是会要用代码做免费自助建站
  • 网站开发应该怎么做在线网站流量查询
  • 深圳做宣传网站的公司百度登录入口
  • 福州高端网站建设如何注册网站
  • 商城网站建设大连今日新闻头条官网