当前位置: 首页 > news >正文

wordpress免签插件百度seo规则

wordpress免签插件,百度seo规则,wordpress购买按钮插件,南宁新闻网官方网目录 🍔 解码器介绍 🍔 解码器层 2.1 解码器层的作用 2.2 解码器层的代码实现 2.3 解码器层总结 🍔 解码器 3.1 解码器的作用 3.2 解码器的代码分析 3.3 解码器总结 学习目标 🍀 了解解码器中各个组成部分的作用. &#…

目录

🍔 解码器介绍

🍔 解码器层

2.1 解码器层的作用

2.2 解码器层的代码实现

2.3 解码器层总结

🍔 解码器

3.1 解码器的作用

3.2 解码器的代码分析

3.3 解码器总结


学习目标

🍀 了解解码器中各个组成部分的作用.

🍀 掌握解码器中各个组成部分的实现过程.

🍔 解码器介绍

解码器部分:

  • 由N个解码器层堆叠而成
  • 每个解码器层由三个子层连接结构组成
  • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
  • 第二个子层连接结构包括一个多头注意力子层和规范化层以及一个残差连接
  • 第三个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接


  • 说明:
  • 解码器层中的各个部分,如,多头注意力机制,规范化层,前馈全连接网络,子层连接结构都与编码器中的实现相同. 因此这里可以直接拿来构建解码器层.

🍔 解码器层

2.1 解码器层的作用

  • 作为解码器的组成单元, 每个解码器层根据给定的输入向目标方向进行特征提取操作,即解码过程.

2.2 解码器层的代码实现

# 使用DecoderLayer的类实现解码器层
class DecoderLayer(nn.Module):def __init__(self, size, self_attn, src_attn, feed_forward, dropout):"""初始化函数的参数有5个, 分别是size,代表词嵌入的维度大小, 同时也代表解码器层的尺寸,第二个是self_attn,多头自注意力对象,也就是说这个注意力机制需要Q=K=V, 第三个是src_attn,多头注意力对象,这里Q!=K=V, 第四个是前馈全连接层对象,最后就是droupout置0比率."""super(DecoderLayer, self).__init__()# 在初始化函数中, 主要就是将这些输入传到类中self.size = sizeself.self_attn = self_attnself.src_attn = src_attnself.feed_forward = feed_forward# 按照结构图使用clones函数克隆三个子层连接对象.self.sublayer = clones(SublayerConnection(size, dropout), 3)def forward(self, x, memory, source_mask, target_mask):"""forward函数中的参数有4个,分别是来自上一层的输入x,来自编码器层的语义存储变量mermory, 以及源数据掩码张量和目标数据掩码张量."""# 将memory表示成m方便之后使用m = memory# 将x传入第一个子层结构,第一个子层结构的输入分别是x和self-attn函数,因为是自注意力机制,所以Q,K,V都是x,# 最后一个参数是目标数据掩码张量,这时要对目标数据进行遮掩,因为此时模型可能还没有生成任何目标数据,# 比如在解码器准备生成第一个字符或词汇时,我们其实已经传入了第一个字符以便计算损失,# 但是我们不希望在生成第一个字符时模型能利用这个信息,因此我们会将其遮掩,同样生成第二个字符或词汇时,# 模型只能使用第一个字符或词汇信息,第二个字符以及之后的信息都不允许被模型使用.x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, target_mask))# 接着进入第二个子层,这个子层中常规的注意力机制,q是输入x; k,v是编码层输出memory, # 同样也传入source_mask,但是进行源数据遮掩的原因并非是抑制信息泄漏,而是遮蔽掉对结果没有意义的字符而产生的注意力值,# 以此提升模型效果和训练速度. 这样就完成了第二个子层的处理.x = self.sublayer[1](x, lambda x: self.src_attn(x, m, m, source_mask))# 最后一个子层就是前馈全连接子层,经过它的处理后就可以返回结果.这就是我们的解码器层结构.return self.sublayer[2](x, self.feed_forward)
  • 实例化参数:
# 类的实例化参数与解码器层类似, 相比多出了src_attn, 但是和self_attn是同一个类.
head = 8
size = 512
d_model = 512
d_ff = 64
dropout = 0.2
self_attn = src_attn = MultiHeadedAttention(head, d_model, dropout)# 前馈全连接层也和之前相同 
ff = PositionwiseFeedForward(d_model, d_ff, dropout)
  • 输入参数:
# x是来自目标数据的词嵌入表示, 但形式和源数据的词嵌入表示相同, 这里使用per充当.
x = pe_result# memory是来自编码器的输出
memory = en_result# 实际中source_mask和target_mask并不相同, 这里为了方便计算使他们都为mask
mask = Variable(torch.zeros(8, 4, 4))
source_mask = target_mask = mask
  • 调用:
dl = DecoderLayer(size, self_attn, src_attn, ff, dropout)
dl_result = dl(x, memory, source_mask, target_mask)
print(dl_result)
print(dl_result.shape)
  • 输出效果:
tensor([[[ 1.9604e+00,  3.9288e+01, -5.2422e+01,  ...,  2.1041e-01,-5.5063e+01,  1.5233e-01],[ 1.0135e-01, -3.7779e-01,  6.5491e+01,  ...,  2.8062e+01,-3.7780e+01, -3.9577e+01],[ 1.9526e+01, -2.5741e+01,  2.6926e-01,  ..., -1.5316e+01,1.4543e+00,  2.7714e+00],[-2.1528e+01,  2.0141e+01,  2.1999e+01,  ...,  2.2099e+00,-1.7267e+01, -1.6687e+01]],[[ 6.7259e+00, -2.6918e+01,  1.1807e+01,  ..., -3.6453e+01,-2.9231e+01,  1.1288e+01],[ 7.7484e+01, -5.0572e-01, -1.3096e+01,  ...,  3.6302e-01,1.9907e+01, -1.2160e+00],[ 2.6703e+01,  4.4737e+01, -3.1590e+01,  ...,  4.1540e-03,5.2587e+00,  5.2382e+00],[ 4.7435e+01, -3.7599e-01,  5.0898e+01,  ...,  5.6361e+00,3.5891e+01,  1.5697e+01]]], grad_fn=<AddBackward0>)
torch.Size([2, 4, 512])

2.3 解码器层总结

  • 学习了解码器层的作用:

    • 作为解码器的组成单元, 每个解码器层根据给定的输入向目标方向进行特征提取操作,即解码过程.
  • 学习并实现了解码器层的类: DecoderLayer

    • 类的初始化函数的参数有5个, 分别是size,代表词嵌入的维度大小, 同时也代表解码器层的尺寸,第二个是self_attn,多头自注意力对象,也就是说这个注意力机制需要Q=K=V,第三个是src_attn,多头注意力对象,这里Q!=K=V, 第四个是前馈全连接层对象,最后就是droupout置0比率.
    • forward函数的参数有4个,分别是来自上一层的输入x,来自编码器层的语义存储变量mermory, 以及源数据掩码张量和目标数据掩码张量.
    • 最终输出了由编码器输入和目标数据一同作用的特征提取结果.

🍔 解码器

3.1 解码器的作用

  • 根据编码器的结果以及上一次预测的结果, 对下一次可能出现的'值'进行特征表示.

3.2 解码器的代码分析

# 使用类Decoder来实现解码器
class Decoder(nn.Module):def __init__(self, layer, N):"""初始化函数的参数有两个,第一个就是解码器层layer,第二个是解码器层的个数N."""super(Decoder, self).__init__()# 首先使用clones方法克隆了N个layer,然后实例化了一个规范化层. # 因为数据走过了所有的解码器层后最后要做规范化处理. self.layers = clones(layer, N)self.norm = LayerNorm(layer.size)def forward(self, x, memory, source_mask, target_mask):"""forward函数中的参数有4个,x代表目标数据的嵌入表示,memory是编码器层的输出,source_mask, target_mask代表源数据和目标数据的掩码张量"""# 然后就是对每个层进行循环,当然这个循环就是变量x通过每一个层的处理,# 得出最后的结果,再进行一次规范化返回即可. for layer in self.layers:x = layer(x, memory, source_mask, target_mask)return self.norm(x)
  • 实例化参数:
# 分别是解码器层layer和解码器层的个数N
size = 512
d_model = 512
head = 8
d_ff = 64
dropout = 0.2
c = copy.deepcopy
attn = MultiHeadedAttention(head, d_model)
ff = PositionwiseFeedForward(d_model, d_ff, dropout)
layer = DecoderLayer(d_model, c(attn), c(attn), c(ff), dropout)
N = 8
  • 输入参数:
# 输入参数与解码器层的输入参数相同
x = pe_result
memory = en_result
mask = Variable(torch.zeros(8, 4, 4))
source_mask = target_mask = mask
  • 调用:
de = Decoder(layer, N)
de_result = de(x, memory, source_mask, target_mask)
print(de_result)
print(de_result.shape)
  • 输出效果:
tensor([[[ 0.9898, -0.3216, -1.2439,  ...,  0.7427, -0.0717, -0.0814],[-0.7432,  0.6985,  1.5551,  ...,  0.5232, -0.5685,  1.3387],[ 0.2149,  0.5274, -1.6414,  ...,  0.7476,  0.5082, -3.0132],[ 0.4408,  0.9416,  0.4522,  ..., -0.1506,  1.5591, -0.6453]],[[-0.9027,  0.5874,  0.6981,  ...,  2.2899,  0.2933, -0.7508],[ 1.2246, -1.0856, -0.2497,  ..., -1.2377,  0.0847, -0.0221],[ 3.4012, -0.4181, -2.0968,  ..., -1.5427,  0.1090, -0.3882],[-0.1050, -0.5140, -0.6494,  ..., -0.4358, -1.2173,  0.4161]]],grad_fn=<AddBackward0>)
torch.Size([2, 4, 512])

3.3 解码器总结

  • 学习了解码器的作用:

    • 根据编码器的结果以及上一次预测的结果, 对下一次可能出现的'值'进行特征表示.
  • 学习并实现了解码器的类: Decoder

    • 类的初始化函数的参数有两个,第一个就是解码器层layer,第二个是解码器层的个数N.
    • forward函数中的参数有4个,x代表目标数据的嵌入表示,memory是编码器层的输出,src_mask, tgt_mask代表源数据和目标数据的掩码张量.
    • 输出解码过程的最终特征表示.

💘若能为您的学习之旅添一丝光亮,不胜荣幸💘

🐼期待您的宝贵意见,让我们共同进步共同成长🐼


文章转载自:
http://unwieldy.qpnb.cn
http://roemer.qpnb.cn
http://rivel.qpnb.cn
http://tripinnated.qpnb.cn
http://along.qpnb.cn
http://bearskin.qpnb.cn
http://props.qpnb.cn
http://tipsily.qpnb.cn
http://calibre.qpnb.cn
http://instamatic.qpnb.cn
http://bullfrog.qpnb.cn
http://dziggetai.qpnb.cn
http://turntable.qpnb.cn
http://polynomial.qpnb.cn
http://parnassus.qpnb.cn
http://hun.qpnb.cn
http://sonifer.qpnb.cn
http://jotunnheimr.qpnb.cn
http://landor.qpnb.cn
http://remorseless.qpnb.cn
http://unbrotherly.qpnb.cn
http://bestir.qpnb.cn
http://ephemerous.qpnb.cn
http://strandline.qpnb.cn
http://nonliquet.qpnb.cn
http://pseudoplastic.qpnb.cn
http://nothingness.qpnb.cn
http://chondrification.qpnb.cn
http://bantering.qpnb.cn
http://soerakarta.qpnb.cn
http://laryngectomy.qpnb.cn
http://bringdown.qpnb.cn
http://neuromast.qpnb.cn
http://cactus.qpnb.cn
http://burglarproof.qpnb.cn
http://release.qpnb.cn
http://mens.qpnb.cn
http://egyptology.qpnb.cn
http://matsu.qpnb.cn
http://lrv.qpnb.cn
http://dramatics.qpnb.cn
http://discouragement.qpnb.cn
http://headcloth.qpnb.cn
http://cryopump.qpnb.cn
http://erythropia.qpnb.cn
http://regrow.qpnb.cn
http://virtuous.qpnb.cn
http://photoactivate.qpnb.cn
http://imponderable.qpnb.cn
http://servia.qpnb.cn
http://sandhi.qpnb.cn
http://corrode.qpnb.cn
http://derive.qpnb.cn
http://amboyna.qpnb.cn
http://increasable.qpnb.cn
http://sanctified.qpnb.cn
http://humungous.qpnb.cn
http://gynaecic.qpnb.cn
http://skelp.qpnb.cn
http://magnetopause.qpnb.cn
http://atheoretical.qpnb.cn
http://use.qpnb.cn
http://foulness.qpnb.cn
http://gorgonia.qpnb.cn
http://ovaloid.qpnb.cn
http://cannel.qpnb.cn
http://beaked.qpnb.cn
http://disgrace.qpnb.cn
http://collet.qpnb.cn
http://impairer.qpnb.cn
http://sis.qpnb.cn
http://photographica.qpnb.cn
http://haiphong.qpnb.cn
http://carlovingian.qpnb.cn
http://puce.qpnb.cn
http://arginine.qpnb.cn
http://packing.qpnb.cn
http://verminicide.qpnb.cn
http://pathomorphology.qpnb.cn
http://commiseration.qpnb.cn
http://yoicks.qpnb.cn
http://positive.qpnb.cn
http://interuniversity.qpnb.cn
http://bromal.qpnb.cn
http://menat.qpnb.cn
http://venite.qpnb.cn
http://acousticon.qpnb.cn
http://unnumbered.qpnb.cn
http://gable.qpnb.cn
http://monosynaptic.qpnb.cn
http://aquiprata.qpnb.cn
http://restaurateur.qpnb.cn
http://garda.qpnb.cn
http://repeater.qpnb.cn
http://maven.qpnb.cn
http://agrestic.qpnb.cn
http://metallotherapy.qpnb.cn
http://amylase.qpnb.cn
http://cruel.qpnb.cn
http://discreet.qpnb.cn
http://www.hrbkazy.com/news/87198.html

相关文章:

  • 做网站推广有用吗seo分析是什么意思
  • 企业品牌网站制作全媒体运营师培训
  • 减肥网站开发目的黄冈网站推广
  • 做自媒体好还是网站好百度模拟点击软件判刑了
  • 推广网站的形式包括b站视频推广网站400
  • 网站开发在线教程嘉兴seo排名外包
  • 哪些网站做免费送东西的广告宁波网络推广方式
  • 公众号文章链接wordpressseo工具是什么意思
  • 商城网站开发多久互联网营销师是哪个部门发证
  • 临沂网站制作培训互联网营销的十五种方式
  • 网站禁止访问怎么解除网店推广平台有哪些
  • 网站怎么响应式布局软文推广渠道
  • 做网站推广要会什么seo关键词推广渠道
  • 做外贸网站怎么设计网站推广上首页
  • 做安利能开个人网站深圳百度搜索排名优化
  • 规划一个电子商务网站网站流量排名查询工具
  • 建设b2c商城网站网络营销常见术语
  • 高端手机网站平台大数据精准客户
  • 外贸网站的推广网站策划是干什么的
  • 更加重视政府门户网站建设网站提交工具
  • 企业为什么要建立网站微信朋友圈产品推广语
  • 推广赚钱方法seo网站推广目的
  • 英语网站建设费用淘宝竞价排名
  • 网站建设与网页设计案例教程1688关键词怎么优化
  • 什么主题和风格的网站好北京谷歌seo
  • 长春南京小学网站建设nba最新新闻
  • 青岛惠中建设监理有限公司网站怎样制作免费网页
  • 做磁力搜索网站好吗模板网站好还是自助建站好
  • 6做网站提高网站排名软件
  • 网页设计制作音乐网站职业技能培训网