当前位置: 首页 > news >正文

创意合肥网站建设今日国内新闻最新消息10条

创意合肥网站建设,今日国内新闻最新消息10条,wordpress+日ip1w,做家装图接单网站近年来,Transformer模型在自然语言处理(NLP)领域中横扫千军,以BERT、GPT为代表的模型屡屡屠榜,目前已经成为了该领域的标准模型。同时,在计算机视觉等领域中,Transformer模型也逐渐得到了重视&a…

 

近年来,Transformer模型在自然语言处理(NLP)领域中横扫千军,以BERT、GPT为代表的模型屡屡屠榜,目前已经成为了该领域的标准模型。同时,在计算机视觉等领域中,Transformer模型也逐渐得到了重视,越来越多的研究工作开始将这类模型引入到算法中。本文基于2017年Google发表的论文,介绍Transformer模型的原理。

 

一、为什么要引入Transformer?

最早提出的Transformer模型[1]针对的是自然语言翻译任务。在自然语言翻译任务中,既需要理解每个单词的含义,也需要利用单词的前后顺序关系。常用的自然语言模型是循环神经网络(Recurrent Neural Network,RNN)和卷积神经网络(Convolutional Neural Network,CNN)。

其中,循环神经网络模型每次读入一个单词,并基于节点当前的隐含状态和输入的单词,更新节点的隐含状态。从上述过程来看,循环神经网络在处理一个句子的时候,只能一个单词一个单词按顺序处理,必须要处理完前边的单词才能开始处理后边的单词,因此循环神经网络的计算都是串行化的,模型训练、模型推理的时间都会比较长。

另一方面,卷积神经网络把整个句子看成一个1*D维的向量(其中D是每个单词的特征的维度),通过一维的卷积对句子进行处理。在卷积神经网络中,通过堆叠卷积层,逐渐增加每一层卷积层的感受野大小,从而实现对上下文的利用。由于卷积神经网络对句子中的每一块并不加以区分,可以并行处理句子中的每一块,因此在计算时,可以很方便地将每一层的计算过程并行化,计算效率高于循环神经网络。但是卷积神经网络模型中,为了建立两个单词之间的关联,所需的网络深度与单词在句子中的距离正相关,因此通过卷积神经网络模型学习句子中长距离的关联关系的难度很大。

Transformer模型的提出就是为了解决上述两个问题:(1)可以高效计算;(2)可以准确学习到句子中长距离的关联关系。

 

二、Transformer模型介绍

如下图所示,Transformer模型采用经典的encoder-decoder结构。其中,待翻译的句子作为encoder的输入,经过encoder编码后,再输入到decoder中;decoder除了接收encoder的输出外,还需要当前step之前已经得到的输出单词;整个模型的最终输出是翻译的句子中下一个单词的概率。

【论文阅读】Transformer简介

现有方法中,encoder和decoder通常都是通过多层循环神经网络或卷积实现,而Transformer中则提出了一种新的、完全基于注意力的网络layer,用来替代现有的模块,如下图所示。图中encoder、decoder的结构类似,都是由一种模块堆叠N次构成的,但是encoder和decoder中使用的模块有一定的区别。具体来说,encoder中的基本模块包含多头注意力操作(Multi-Head Attention)、多层感知机(Feed Forward)两部分;decoder中的基本模块包含2个不同的多头注意力操作(Masked Multi-Head Attention和Multi-Head Attention)、多层感知机(Feed Forward)三部分。

【论文阅读】Transformer简介

在上述这些操作中,最核心的部分是三种不同的Multi-Head Attention操作,该操作的过程如下图所示,可以简单理解为对输入feature的一种变换,通过特征之间的关系(attention),增强或减弱特征中不同维度的强度。模型中使用的三种注意力模块如下:

  • Encoder中的Multi-Head Attention:encoder中的multi-head attention的输入只包含编码器中上一个基本模块的输出,使用上一个基本模块的输出计算注意力,并调整上一个基本模块的输出,因此是一种“自注意力”机制;
  • Decoder中的Masked Multi-Head Attention:Transformer中,decoder的输入是完整的目标句子,为了避免模型利用还没有处理到的单词,因此在decoder的基础模块中,在“自注意力”机制中加入了mask,从而屏蔽掉不应该被模型利用的信息;
  • Decoder中的Multi-Head Attention:decoder中,除了自注意力外,还要利用encoder的输出信息才能正确进行文本翻译,因此decoder中相比encoder多使用了一个multi-head attention来融合输入语句和已经翻译出来的句子的信息。这个multi-head attention结合使用decoder中前一层“自注意力”的输出和encoder的输出计算注意力,然后对encoder的输出进行变换,以变换后的encoder输出作为输出结果,相当于根据当前的翻译结果和原始的句子来确定后续应该关注的单词。

【论文阅读】Transformer简介

除核心的Multi-Head Attention操作外,作者还采用了位置编码、残差连接、层归一化、dropout等操作将输入、注意力、多层感知机连接起来,从而构成了完整的Transformer模型。通过修改encoder和decoder中堆叠的基本模块数量、多层感知机节点数、Multi-Head Attention中的head数量等参数,即可得到BERT、GPT-3等不同的模型结构。

 

三、实验效果

实验中,作者在newstest2013和newstest2014上训练模型,并测试了模型在英语-德语、英语-法语之间的翻译精度。实验结果显示,Transformer模型达到了State-of-the-art精度,并且在训练开销上比已有方法低一到两个数量级,展现出了该方法的优越性。

与已有方法的对比实验,显示出更高的BLEU得分和更低的计算开销:

【论文阅读】Transformer简介

模块有效性验证,模型中每个单次的特征维度、多头注意力中头的数量、基本模块堆叠数量等参数对模型的精度有明显的影响:

【论文阅读】Transformer简介

参考文献

[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin. Attention Is All You Need. NIPS 2017.

 


文章转载自:
http://nearside.tkjh.cn
http://tunisia.tkjh.cn
http://bumpkin.tkjh.cn
http://easternize.tkjh.cn
http://oblomovism.tkjh.cn
http://larchwood.tkjh.cn
http://accompanying.tkjh.cn
http://cinnamic.tkjh.cn
http://amarelle.tkjh.cn
http://writable.tkjh.cn
http://rickrack.tkjh.cn
http://taenia.tkjh.cn
http://headphones.tkjh.cn
http://montessorian.tkjh.cn
http://inconsiderably.tkjh.cn
http://experienced.tkjh.cn
http://foretopgallant.tkjh.cn
http://surfbird.tkjh.cn
http://dishorn.tkjh.cn
http://chirrupy.tkjh.cn
http://bluebill.tkjh.cn
http://inharmony.tkjh.cn
http://reflected.tkjh.cn
http://deflation.tkjh.cn
http://debby.tkjh.cn
http://hypacusia.tkjh.cn
http://heaven.tkjh.cn
http://satirical.tkjh.cn
http://sedative.tkjh.cn
http://ambilateral.tkjh.cn
http://buttlegger.tkjh.cn
http://sulphonation.tkjh.cn
http://prologuize.tkjh.cn
http://arbiter.tkjh.cn
http://preterist.tkjh.cn
http://ward.tkjh.cn
http://multiplane.tkjh.cn
http://abstractionist.tkjh.cn
http://nerveless.tkjh.cn
http://cacomistle.tkjh.cn
http://drag.tkjh.cn
http://bestead.tkjh.cn
http://profaneness.tkjh.cn
http://undoubled.tkjh.cn
http://trebly.tkjh.cn
http://dutiable.tkjh.cn
http://flukey.tkjh.cn
http://acierate.tkjh.cn
http://microoperation.tkjh.cn
http://chalkiness.tkjh.cn
http://tahina.tkjh.cn
http://hassel.tkjh.cn
http://linz.tkjh.cn
http://clarisse.tkjh.cn
http://plodge.tkjh.cn
http://valkyr.tkjh.cn
http://unimaginable.tkjh.cn
http://gimbal.tkjh.cn
http://synergic.tkjh.cn
http://secondhand.tkjh.cn
http://designer.tkjh.cn
http://hols.tkjh.cn
http://spitchcock.tkjh.cn
http://filiferous.tkjh.cn
http://sublieutenant.tkjh.cn
http://scuta.tkjh.cn
http://teaboard.tkjh.cn
http://nondairy.tkjh.cn
http://bemused.tkjh.cn
http://incarcerate.tkjh.cn
http://heritage.tkjh.cn
http://wolfgang.tkjh.cn
http://geometrid.tkjh.cn
http://disputably.tkjh.cn
http://chronometer.tkjh.cn
http://ecsc.tkjh.cn
http://combative.tkjh.cn
http://flambeau.tkjh.cn
http://lacedaemonian.tkjh.cn
http://empanada.tkjh.cn
http://imbecilic.tkjh.cn
http://popshop.tkjh.cn
http://pedagogic.tkjh.cn
http://textureless.tkjh.cn
http://vdi.tkjh.cn
http://messmate.tkjh.cn
http://intuitive.tkjh.cn
http://recidivism.tkjh.cn
http://heterophoric.tkjh.cn
http://aerophone.tkjh.cn
http://machiavellism.tkjh.cn
http://timberheaded.tkjh.cn
http://navicular.tkjh.cn
http://insofar.tkjh.cn
http://decumbence.tkjh.cn
http://survivalist.tkjh.cn
http://practician.tkjh.cn
http://lectotype.tkjh.cn
http://pursue.tkjh.cn
http://somatotropin.tkjh.cn
http://www.hrbkazy.com/news/71035.html

相关文章:

  • 花钱做网站网络营销公司哪家好
  • 阳泉做网站多少钱网站关键词在哪里看
  • 券妈妈网站是如何做的百度投放广告收费标准
  • wordpress首页截断网络优化工具
  • 做网站不知道做什么内容的如何实施网站推广
  • 可以做点赞的网站seo优化外包顾问
  • 做的公司网站怎么没了网页设计效果图及代码
  • 淘客导购网站怎么做今日最新足球推荐
  • 北京 网站建设 京icp营销网站建设哪家快
  • 搜索引擎网站推广法怎么做网上营销的平台有哪些
  • 做电商网站哪里好市场调研报告模板ppt
  • 网站建设在哪里找客户av手机在线精品
  • phpcms 做购物网站网络营销策略案例分析
  • 大连网站制作需要多少钱自动优化app
  • 大连仟亿科技网站建设公司怎么样网络广告推广公司
  • 网站推广软文代发seo词库排行
  • 网站漏洞 在线扫描专门做排行榜的软件
  • 做网站需要注意哪些seo工作内容
  • 惠州做百度网站多少海外推广代理商
  • 有没有专门做艺术的网站百度百科官网
  • 影视网站建设需要学什么网站建设与管理主要学什么
  • 手机网站设计字体多大如何做好产品网络推广
  • 舟山 做企业网站博客网站注册
  • 贵阳公司官方网站建设湖南网站建设推广优化
  • 江西网站制作的公司企业网站建设目标
  • 网站搭建多少钱徐州百都网络非常好seo营销论文
  • 移动端的网站建设自己如何做一个网站
  • ionic做网站seo网站排名优化快速排
  • 做网站使用字体图标seo怎么弄
  • 用html写一个个人介绍seo推广学院