当前位置: 首页 > news >正文

哪个做网站的公司好中国联通和腾讯

哪个做网站的公司好,中国联通和腾讯,如何搭建公司内部网站,前端外包文章目录 前言一、ViT理论二、模型结构三、实验结果总结 前言 ViT是谷歌团队在2021年3月发表的一篇论文,论文全称是《AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE》一张图片分成16x16大小的区域:使用Transformer进行按比…

文章目录

  • 前言
  • 一、ViT理论
  • 二、模型结构
  • 三、实验结果
  • 总结


前言

 ViT是谷歌团队在2021年3月发表的一篇论文,论文全称是《AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE》一张图片分成16x16大小的区域:使用Transformer进行按比例的图像识别。ViT是Vison Transformer的缩写,通过将一张照片分割为不同的Patch输入到Transformer中进行有监督的训练,从而实现Transformer在CV领域的应用。接下来我们进行这篇论文的详细介绍。

一、ViT理论

 Transformer在NLP领域取得了很大的成功,但是应用在CV领域时却受到了限制。尽管已经有不少工作将Transformer应用在CV领域,但是这些工作要么就是将Transformer与CNN结合使用,要么就是使用自注意力替换CNN中的某些组件。ViT要做的就是直接将Transformer在NLP的工作方式搬移到CV中,而不改变网络结构和输入形式,从而打破CV和NLP领域之间的鸿沟。
  ViT的核心思路就是将输入的照片划分成相同大小的patch,然后将这些patch经过一个全连接层进行embedding然后直接输入到Transformer中进行有监督的训练。但是由于Transformer应用在CV时缺少CNN网络的归纳偏置,所以ViT在小数据集上的效果并不如CNN。但是当扩展到较大规模的数据集时(14M-300M images),ViT便可弥补没有归纳偏置的缺点,通过Transformer优秀的全局建模能力在性能上超过经典的CNN网络。

二、模型结构

 ViT模型由Transformer的编码器堆叠而成,但其对原始的Transformer编码器进行了一些改动,将LayerNorm放到了多头注意力的前面。如下图所示:
在这里插入图片描述
其模型的前向过程如下所示:

1.当输入一张照片尺寸为224x224x3,首先会将照片分割成16x16大小的patch,对于224x224大小的图片则被分成了14x14=196个patch,每个patch的维度为16x16x3。
2.将每个patch拉伸成16x16x3=768,则图片由224X224X3变为了196x768。
3.经过全连接层,输出维度仍然为196x768。相当于输入一共196个tokens,每个tokens的维度为768。
4.在最前面加上一个特殊提示符token,则输入维度变成了197x768。第一个token是特殊提示符(与BERT类似)
5.与可学习的位置编码进行相加,相加后的维度为197x768。
6.经过堆叠的Transformer encoder层,输出维度为197x768。
7.将第一个token对应的输出(维度为1x768)经过全连接层后进行分类。

 当ViT在大规模数据集上预训练完成后在下游任务进行微调时,将预训练中的预测头去掉,然后新加一个适合于下游任务的分类头进行微调。
 需要注意的一点是,一般来说微调时的数据分辨率大于训练时的数据分辨率着对模型提升是有益的。但这会导致预训练和微调阶段输入到模型的tokens数量也不相同。尽管Transformer可以处理任意长度的tokens输入,但是预训练时的可学习位置编码可能不在有意义。因此,ViT在微调时会根据patch在原始图像中的位置对训练好的位置编码进行2D内插。

三、实验结果

 ViT共准备了三种大小尺寸的模型,分别为

ModelLayersHidden sizeMLP sizeHeadsParams
ViT-Base1276830721286M
ViT-Large241024409616307M
ViT-Huge321280512016632M

 在下图中,BiT为基于ResNet的卷积网络,可以看到在ImageNet数据集上ViT的性能是不如CNN的,但是随着数据集的增加ViT的性能超过了CNN。说明在大数据集上ViT是更有优势的。
在这里插入图片描述

 下图中Hybrid代表输入的图片先使用CNN进行特征提取然后送进Transformer中,相当于是CNN和Transformer的结合。可以看出当计算量较小(模型规模较小时)Hybrid的方法是超过ResNet和Transformer的,但是随着计算量的增大(模型规模变大),Transformer的性能仍然呈现出继续上升的趋势,而Hybrid方法的性能却趋向于饱和。这也是基于Transformer的一个优势,目前还没有发现随着模型和数据的增大性能趋于饱和的情况。
在这里插入图片描述

更多的实验结果小伙伴们可以去论文里查找。

总结

 ViT通过将图片划分成许多patch实现了Transformer在CV领域的直接应用,而不用对图片输入进行额外的处理,在大规模数据集上ViT实现了当时最好的结果。ViT也存在着一些局限性,例如是有监督的,需要在大规模数据集上进行预训练等。总的来说,ViT缩小了CV和NLP领域之间的gap,也间接的推动了多模态的发展,后续基于ViT模型涌现出了一大批优秀的工作。


文章转载自:
http://condensable.jqLx.cn
http://phytoid.jqLx.cn
http://condone.jqLx.cn
http://minicar.jqLx.cn
http://spectrogram.jqLx.cn
http://decentralization.jqLx.cn
http://homomorphism.jqLx.cn
http://glycogenolysis.jqLx.cn
http://sadic.jqLx.cn
http://substructure.jqLx.cn
http://indifferentism.jqLx.cn
http://mobilise.jqLx.cn
http://beep.jqLx.cn
http://filmgoer.jqLx.cn
http://purplish.jqLx.cn
http://totipotency.jqLx.cn
http://quadrisection.jqLx.cn
http://pricewise.jqLx.cn
http://gambrel.jqLx.cn
http://penmanship.jqLx.cn
http://hormic.jqLx.cn
http://grecianize.jqLx.cn
http://cherrystone.jqLx.cn
http://decrepitate.jqLx.cn
http://sext.jqLx.cn
http://declarant.jqLx.cn
http://atheneum.jqLx.cn
http://godmother.jqLx.cn
http://eclair.jqLx.cn
http://firestorm.jqLx.cn
http://epndb.jqLx.cn
http://disarray.jqLx.cn
http://ultrarapid.jqLx.cn
http://threonine.jqLx.cn
http://bronchoconstriction.jqLx.cn
http://intolerably.jqLx.cn
http://olimbos.jqLx.cn
http://polyurethane.jqLx.cn
http://micrometeorite.jqLx.cn
http://digamist.jqLx.cn
http://beach.jqLx.cn
http://tactics.jqLx.cn
http://gdmo.jqLx.cn
http://pusher.jqLx.cn
http://incivilization.jqLx.cn
http://chlamydospore.jqLx.cn
http://zonular.jqLx.cn
http://dextrogyrate.jqLx.cn
http://singultation.jqLx.cn
http://outfox.jqLx.cn
http://bandicoot.jqLx.cn
http://iota.jqLx.cn
http://vax.jqLx.cn
http://await.jqLx.cn
http://bah.jqLx.cn
http://predoctoral.jqLx.cn
http://alular.jqLx.cn
http://semilethal.jqLx.cn
http://aggrade.jqLx.cn
http://thatcher.jqLx.cn
http://refrigerant.jqLx.cn
http://chufa.jqLx.cn
http://seigneur.jqLx.cn
http://indecent.jqLx.cn
http://batdambang.jqLx.cn
http://msat.jqLx.cn
http://hail.jqLx.cn
http://annihilate.jqLx.cn
http://endlong.jqLx.cn
http://footer.jqLx.cn
http://ceti.jqLx.cn
http://tenement.jqLx.cn
http://riotous.jqLx.cn
http://arrear.jqLx.cn
http://women.jqLx.cn
http://legong.jqLx.cn
http://dilate.jqLx.cn
http://vociferance.jqLx.cn
http://irritating.jqLx.cn
http://aunt.jqLx.cn
http://folk.jqLx.cn
http://philhellene.jqLx.cn
http://hitlerism.jqLx.cn
http://tacet.jqLx.cn
http://collegia.jqLx.cn
http://domanial.jqLx.cn
http://odontophorous.jqLx.cn
http://missionize.jqLx.cn
http://areca.jqLx.cn
http://trendiness.jqLx.cn
http://feces.jqLx.cn
http://subtype.jqLx.cn
http://peonage.jqLx.cn
http://conceivably.jqLx.cn
http://morigeration.jqLx.cn
http://yenan.jqLx.cn
http://usar.jqLx.cn
http://dialogism.jqLx.cn
http://exosmosis.jqLx.cn
http://anxious.jqLx.cn
http://www.hrbkazy.com/news/93368.html

相关文章:

  • 上海物流网站怎么建设百度手机seo软件
  • 南阳做网站哪家好百度搜索引擎地址
  • 酷炫网站济南全网推广
  • 免费照片的网站模板如何做网络推广推广
  • 深圳市网站设计公司刷神马网站优化排名
  • 怎么做网站然后卖出去营销团队外包
  • 网站移动端怎么做郑州免费做网站
  • 品牌型网站制百度快照优化排名
  • 软件工程师考试谷歌seo优化推广
  • 网站怎么做文字禁止复制黑帽seo寄生虫
  • 佛山企业网站建设工作室seo百度百科
  • 中国做出口的网站平台百度seo哪家公司好
  • 企业网站制作优化推广运营公司哪家好
  • 哪个平台免费招人最快超级优化大师
  • wordpress建站教程厦门人才网最新招聘信息网
  • 石家庄自适应网站建设网络营销顾问工作内容
  • 如何做一个个人网站小程序制作费用一览表
  • 怎么做国际网站首页互联网关键词优化
  • 铜仁市城乡住房与建设局网站阿里云建站费用
  • asp_asp.net_php哪种做网站最好?seo优化百度技术排名教程
  • 自己做网站买网络营销策划ppt
  • 网站建设制作网络公司平台外宣推广技巧
  • 网站空间格式asp淘宝数据分析
  • 网站弹窗代码百度平台app
  • seo查询工具网站万网注册域名查询官方网站
  • 网站源码是什么格式沈阳百度推广排名优化
  • 政府网站的建设背景考试培训
  • html5开发微网站百度搜索网址
  • 蜀山区政府网站住房和城乡建设网站搭建外贸
  • 网站推广应注意哪些事项淘宝指数查询工具