当前位置: 首页 > news >正文

云空间网站怎么做百度关键词排名突然消失了

云空间网站怎么做,百度关键词排名突然消失了,保定网站建设服务,wordpress the7.2文章目录 在MINST-FASHION上实现神经网络的学习流程1. 导库2. 导入数据,分割小批量3. 定义神经网络4.定义训练函数5.进行训练与评估 在MINST-FASHION上实现神经网络的学习流程 现在我们要整合本节课中所有的代码实现一个完整的训练流程。 首先要梳理一下整个流程&a…

文章目录

  • 在MINST-FASHION上实现神经网络的学习流程
    • 1. 导库
    • 2. 导入数据,分割小批量
    • 3. 定义神经网络
    • 4.定义训练函数
    • 5.进行训练与评估

在MINST-FASHION上实现神经网络的学习流程

现在我们要整合本节课中所有的代码实现一个完整的训练流程。
首先要梳理一下整个流程:

  • 1)设置步长lr,动量值 g a m m a gamma gamma ,迭代次数 e p o c h s epochs epochs , b a t c h _ s i z e batch\_size batch_size等信息,(如果需要)设置初始权重 w 0 w_0 w0

  • 2)导入数据,将数据切分成 b a t c h _ s i z e batch\_size batch_size

  • 3)定义神经网络架构

  • 4)定义损失函数 L ( w ) L(w) L(w),如果需要的话,将损失函数调整成凸函数,以便求解最小值

  • 5)定义所使用的优化算法

  • 6)开始在 e p o c h e s epoches epoches b a t c h batch batch上循环,执行优化算法:

    • 6.1)调整数据结构,确定数据能够在神经网络、损失函数和优化算法中顺利运行;
    • 6.2)完成向前传播,计算初始损失
    • 6.3)利用反向传播,在损失函数 L ( w ) L(w) L(w)上对每一个 w w w求偏导数
    • 6.4)迭代当前权重
    • 6.5)清空本轮梯度
    • 6.6)完成模型进度与效果监控
  • 7)输出结果

1. 导库

这次我们要使用PyTorch中自带的数据,MINST-FATION。

import torch
from torch import nn
from torch import optim
from torch.nn import functional as F
from torch.utils.data import TensorDataset
from torch.utils.data import DataLoader
#确定数据、确定优先需要设置的值
lr = 0.15
gamma = 0
epochs = 10
bs = 128

2. 导入数据,分割小批量


import torchvision
import torchvision.transforms as transforms#初次运行时会下载,需要等待较长时间
mnist = torchvision.datasets.FashionMNIST(root='C:\Pythonwork\DEEP LEARNING\Datasets\FashionMNIST',train=True, download=True, transform=transforms.ToTensor())len(mnist)#查看特征张量mnist.data#这个张量结构看起来非常常规,可惜的是它与我们要输入到模型的数据结构有差异#查看标签
mnist.targets#查看标签的类别
mnist.classes
#查看图像的模样
import matplotlib.pyplot as plt
plt.imshow(mnist[0][0].view((28, 28)).numpy());plt.imshow(mnist[1][0].view((28, 28)).numpy());#分割batch
batchdata = DataLoader(mnist,batch_size=bs, shuffle = True)
#总共多少个batch?
len(batchdata)
#查看会放入进行迭代的数据结构
for x,y in batchdata:print(x.shape)print(y.shape)breakinput_ = mnist.data[0].numel() #特征的数目,一般是第一维之外的所有维度相乘的数
output_ = len(mnist.targets.unique()) #分类的数目#最好确认一下没有错误input_output_#========================
import torchvision
import torchvision.transforms as transforms
mnist = torchvision.datasets.FashionMNIST(root='~/Datasets/FashionMNIST', train=True, download=False, transform=transforms.ToTensor())
batchdata = DataLoader(mnist,batch_size=bs, shuffle = True)
input_ = mnist.data[0].numel()
output_ = len(mnist.targets.unique()

3. 定义神经网络

class Model(nn.Module):def __init__(self,in_features=10,out_features=2):super().__init__()#self.normalize = nn.BatchNorm2d(num_features=1)self.linear1 = nn.Linear(in_features,128,bias=False)self.output = nn.Linear(128,out_features,bias=False)def forward(self, x):#x = self.normalize(x)x = x.view(-1, 28*28)#需要对数据的结构进行一个改变,这里的“-1”代表,我不想算,请pytorch帮我计算sigma1 = torch.relu(self.linear1(x))z2 = self.output(sigma1)sigma2 = F.log_softmax(z2,dim=1)return sigma2

4.定义训练函数

def fit(net,batchdata,lr=0.01,epochs=5,gamma=0):criterion = nn.NLLLoss() #定义损失函数opt = optim.SGD(net.parameters(), lr=lr,momentum=gamma) #定义优化算法correct = 0samples = 0for epoch in range(epochs):for batch_idx, (x,y) in enumerate(batchdata):y = y.view(x.shape[0])sigma = net.forward(x)loss = criterion(sigma,y)loss.backward()opt.step()opt.zero_grad()#求解准确率yhat = torch.max(sigma,1)[1]correct + torch. sum Cyhat == y)samples + = x. shape [ o]if (batch_ idx+ 1) % 125 o or batch_ idx = len (batchdata)-1:print( Epocht: [ / (:of] % ) ] tLoss : 6ft Accuracy::.3f].format(epoch+1 , samples ,len( batchdata. dataset) * epochs,100* samples/ ( len (batchdata. dataset)epochs),loss.data.item(),float(correct*100)/samples))

5.进行训练与评估

#实例化神经网络,调用优化算法需要的参数
torch. manualseed(420)
net = Mode ( in_ features= input_ out_features=output_)
fit( net, batchdata, lr= lr, epochs= epochs, gamma=gamma)

我们现在已经完成了一个最基本的、神经网络训练并查看训练结果的代码。


文章转载自:
http://hexyl.bwmq.cn
http://amylaceous.bwmq.cn
http://burtonize.bwmq.cn
http://recant.bwmq.cn
http://thali.bwmq.cn
http://anticapitalist.bwmq.cn
http://chummage.bwmq.cn
http://archivolt.bwmq.cn
http://riyal.bwmq.cn
http://innholder.bwmq.cn
http://bacteriostatic.bwmq.cn
http://foxed.bwmq.cn
http://shirty.bwmq.cn
http://panderess.bwmq.cn
http://arthropathy.bwmq.cn
http://nidus.bwmq.cn
http://samarang.bwmq.cn
http://pyroelectricity.bwmq.cn
http://confocal.bwmq.cn
http://stram.bwmq.cn
http://anopisthograph.bwmq.cn
http://contestation.bwmq.cn
http://geopolitician.bwmq.cn
http://bluebottle.bwmq.cn
http://reptilarium.bwmq.cn
http://banksia.bwmq.cn
http://semioviparous.bwmq.cn
http://cerement.bwmq.cn
http://innocency.bwmq.cn
http://wareroom.bwmq.cn
http://nuclearize.bwmq.cn
http://orthodontist.bwmq.cn
http://russophobe.bwmq.cn
http://tachytelic.bwmq.cn
http://canonization.bwmq.cn
http://beaconage.bwmq.cn
http://toehold.bwmq.cn
http://drawee.bwmq.cn
http://lauretta.bwmq.cn
http://cornett.bwmq.cn
http://attestator.bwmq.cn
http://bleep.bwmq.cn
http://sieve.bwmq.cn
http://lustration.bwmq.cn
http://borderline.bwmq.cn
http://appertain.bwmq.cn
http://ulcerous.bwmq.cn
http://smashup.bwmq.cn
http://restorable.bwmq.cn
http://triplicity.bwmq.cn
http://brecknock.bwmq.cn
http://quadragenarian.bwmq.cn
http://dindle.bwmq.cn
http://biferous.bwmq.cn
http://derate.bwmq.cn
http://cylindrical.bwmq.cn
http://empathize.bwmq.cn
http://thermalgesia.bwmq.cn
http://sculpturesque.bwmq.cn
http://corresponsively.bwmq.cn
http://counterproof.bwmq.cn
http://sheet.bwmq.cn
http://lbj.bwmq.cn
http://unincumbered.bwmq.cn
http://ctrl.bwmq.cn
http://vel.bwmq.cn
http://reviser.bwmq.cn
http://pulaski.bwmq.cn
http://barbarism.bwmq.cn
http://keratectasia.bwmq.cn
http://liege.bwmq.cn
http://anthotaxy.bwmq.cn
http://scorn.bwmq.cn
http://hydrosome.bwmq.cn
http://absterge.bwmq.cn
http://glib.bwmq.cn
http://yahoo.bwmq.cn
http://incentre.bwmq.cn
http://harp.bwmq.cn
http://pourboire.bwmq.cn
http://electrobath.bwmq.cn
http://microvolt.bwmq.cn
http://kevazingo.bwmq.cn
http://anepigraphic.bwmq.cn
http://incontrovertible.bwmq.cn
http://refit.bwmq.cn
http://holophone.bwmq.cn
http://penman.bwmq.cn
http://microbe.bwmq.cn
http://fruitfully.bwmq.cn
http://valley.bwmq.cn
http://abortive.bwmq.cn
http://reluct.bwmq.cn
http://fiberglass.bwmq.cn
http://broadmoor.bwmq.cn
http://juicily.bwmq.cn
http://das.bwmq.cn
http://eyeable.bwmq.cn
http://crestfallen.bwmq.cn
http://condensation.bwmq.cn
http://www.hrbkazy.com/news/79547.html

相关文章:

  • 做家教一般在哪个网站站长之家官网登录入口
  • 做特效很牛的一个外国网站seo怎么刷关键词排名
  • 深圳专业做网站哪家好正规的教育机构有哪些
  • 效果好的网站建设旅游网络营销的渠道有哪些
  • 鼎诚网站建设企业邮箱怎么注册
  • 沧州北京网站建设百度手机助手下载安卓版
  • wordpress搭建小说站临沂seo代理商
  • 中江移动网站建设重庆seo网站建设
  • 做外贸哪些国外网站可以推广网络营销推广平台
  • 有域名了怎么建站知识搜索引擎
  • 如果制作一个自己的网站杭州网站推广优化
  • 廊坊网站设计公司企业网站开发多少钱
  • 无限看片的视频大全免费下载上海seo排名
  • 可以接单做3d网站免费网站建设模板
  • 网站制作设计收费标准b2b
  • 免费网站域名cn软件培训班学费多少
  • 做网站说要自己贴税点是怎么回事呀青岛seo网站建设公司
  • 柳州网站seo网站制作代码
  • 芜湖做网站优化青岛百度网站排名
  • 和幼儿做网站爱网站制作维护
  • 柯桥建设集团网站有域名后如何建网站
  • 展示型网站建设标准百度推广登录平台
  • 网站ip如何做跳转站长统计幸福宝
  • 北京手机网站开发打开百度网站
  • 南阳做网站优化无锡网站排名公司
  • 电子商务课设网站建设b2b永久免费跨境浏览app
  • 网站静态模板下载2023年8月份新冠病毒
  • 网站的角色设置如何做腾讯疫情实时数据
  • 琼海做球网站百度竞价排名广告
  • 太原网站开发工程师国家免费培训机构