当前位置: 首页 > news >正文

河南省人民政府门户网站上海哪家seo公司好

河南省人民政府门户网站,上海哪家seo公司好,小程序外包公司,河南品牌网站建设slavahead 一、介绍 BERT模型的出现BERT模型带来了NLP的重大进展。 BERT 的架构源自 Transformer,它在各种下游任务上取得了最先进的结果:语言建模、下一句预测、问答、NER标记等。 尽管 BERT 性能出色,研究人员仍在继续尝试其配置&#xff0…

@slavahead

一、介绍

        BERT模型的出现BERT模型带来了NLP的重大进展。 BERT 的架构源自 Transformer,它在各种下游任务上取得了最先进的结果:语言建模、下一句预测、问答、NER标记等。

        尽管 BERT 性能出色,研究人员仍在继续尝试其配置,希望获得更好的指标。幸运的是,他们成功了,并提出了一种名为 RoBERTa 的新模型 - 鲁棒优化的 BERT 方法。

        在本文中,我们将参考官方 RoBERTa 论文,其中包含有关模型的深入信息。简而言之,RoBERTa 对原始 BERT 模型进行了多项独立改进——包括架构在内的所有其他原则保持不变。本文将介绍和解释所有的进步。

二、动态遮蔽

        从 BERT 的架构中我们记得,在预训练期间,BERT 通过尝试预测一定百分比的屏蔽标记来执行语言建模。原始实现的问题在于,为不同批次的给定文本序列选择的掩码标记有时是相同的。

        更准确地说,训练数据集被复制 10 次,因此每个序列仅以 10 种不同的方式进行屏蔽。请记住,BERT 运行 40 个训练周期,具有相同掩码的每个序列都会传递给 BERT 四次。研究人员发现,使用动态掩码效果稍好,这意味着每次将序列传递给 BERT 时都会唯一生成掩码。总体而言,这会减少训练期间的重复数据,从而使模型有机会处理更多不同的数据和屏蔽模式。

静态掩蔽与动态掩蔽

三、下一句预测

        该论文的作者进行了研究,寻找对下一个句子预测任务进行建模的最佳方法。结果,他们发现了一些有价值的见解:

  • 删除下一个句子的预测损失会带来稍微更好的性能。
  • 与传递由多个句子组成的序列相比,将单个自然句子传递到 BERT 输入会损害性能。解释这种现象的最可能的假设之一是模型很难仅依靠单个句子来学习远程依赖关系。
  • 通过从单个文档而不是多个文档中采样连续的句子来构造输入序列更有利 。 通常,序列始终由单个文档的连续完整句子构建,因此总长度最多为 512 个标记。当我们到达文档末尾时,问题就出现了。在这方面,研究人员比较了是否值得停止对此类序列进行句子采样,或者额外采样下一个文档的前几个句子(并在文档之间添加相应的分隔符标记)。结果表明第一种方案效果较好。

        最终,对于最终的 RoBERTa 实现,作者选择保留前两个方面并省略第三个方面。尽管观察到第三个见解背后的改进,但研究人员并没有继续下去,因为否则,它会使之前的实现之间的比较更加成问题。发生这种情况的原因是,到达文档边界并停在那里意味着输入序列将包含少于 512 个标记。为了在所有批次中具有相似数量的令牌,在这种情况下需要增加批次大小。这导致批量大小可变和研究人员希望避免的更复杂的比较。

四、增加批量大小

        NLP 的最新进展表明,增加批量大小并适当降低学习率和训练步骤数通常会提高模型的性能。

        提醒一下,BERT 基础模型是在 256 个序列的批量大小上训练一百万步的。作者尝试在 2K 和 8K 的批量大小上训练 BERT,并选择后者来训练 RoBERTa。相应的训练步数和学习率值分别变为31K和1e-3。

同样重要的是要记住,通过一种称为“梯度累积”的特殊技术,批量大小的增加会导致更容易的并行化。< /span>

五、字节文本编码

        在 NLP 中,存在三种主要类型的文本标记化:

  • 字符级标记化
  • 子字级标记化
  • 词级标记化

        原始 BERT 使用词汇大小为 30K 的子字级标记化,这是在输入预处理和使用多种启发式之后学习的。 RoBERTa 使用字节而不是 unicode 字符作为子词的基础,并将词汇量扩展至 50K,无需任何预处理或输入标记化。这导致 BERT 基础模型和 BERT 大模型分别增加 15M 和 20M 的额外参数。 RoBERTa 中引入的编码版本表现出比以前稍差的结果。

        尽管如此,与 BERT 相比,RoBERTa 词汇量大小的增长允许在不使用未知标记的情况下对几乎任何单词或子词进行编码。这给 RoBERTa 带来了相当大的优势,因为该模型现在可以更全面地理解包含稀有单词的复杂文本。

六、预训练

        除此之外,RoBERTa 应用了上述所有四个方面,并具有与 BERT Large 相同的架构参数。 RoBERTa的参数总数为355M。

        RoBERTa 在五个海量数据集的组合上进行了预训练,产生总共 160 GB 的文本数据。相比之下,BERT Large 仅在 13 GB 数据上进行预训练。最后,作者将训练步骤数从 100K 增加到 500K。

        因此,在最流行的基准测试中,RoBERTa 在 XLNet Large 上的表现优于 BERT Large。

七、RoBERTa 版本

        与 BERT 类似,研究人员开发了两个版本的 RoBERTa。基本版本和大版本中的大多数超参数是相同的。下图展示了主要区别:

        RoBERTa 中的微调过程与 BERT 类似。

八、结论

        在本文中,我们研究了 BERT 的改进版本,它通过引入以下几个方面来修改原始训练过程:

  • 动态掩蔽
  • 省略下一句预测目标
  • 较长句子的训练
  • 增加词汇量
  • 使用更大批量的数据进行更长时间的训练

        由此产生的 RoBERTa 模型在顶级基准测试中似乎优于其祖先。尽管配置更复杂,RoBERTa 仅添加了 15M 额外参数,保持了与 BERT 相当的推理速度。


文章转载自:
http://graver.bwmq.cn
http://rattiness.bwmq.cn
http://orkney.bwmq.cn
http://kiang.bwmq.cn
http://gentian.bwmq.cn
http://bothie.bwmq.cn
http://microsoft.bwmq.cn
http://bioclimatic.bwmq.cn
http://microcephaly.bwmq.cn
http://guaiacol.bwmq.cn
http://osteoarthritis.bwmq.cn
http://funky.bwmq.cn
http://construable.bwmq.cn
http://salicional.bwmq.cn
http://macrocyte.bwmq.cn
http://frenchwoman.bwmq.cn
http://croustade.bwmq.cn
http://alluvium.bwmq.cn
http://hatchet.bwmq.cn
http://noah.bwmq.cn
http://rallyist.bwmq.cn
http://monadism.bwmq.cn
http://cataleptic.bwmq.cn
http://tarpeian.bwmq.cn
http://polyxena.bwmq.cn
http://steaminess.bwmq.cn
http://siphon.bwmq.cn
http://wickedly.bwmq.cn
http://thetis.bwmq.cn
http://educe.bwmq.cn
http://sparaxis.bwmq.cn
http://quintuplet.bwmq.cn
http://interocular.bwmq.cn
http://rdb.bwmq.cn
http://upbow.bwmq.cn
http://forefathers.bwmq.cn
http://sharpness.bwmq.cn
http://ultimatistic.bwmq.cn
http://housebreak.bwmq.cn
http://armarian.bwmq.cn
http://allatectomy.bwmq.cn
http://historical.bwmq.cn
http://gangsa.bwmq.cn
http://monzonite.bwmq.cn
http://terminating.bwmq.cn
http://anthracoid.bwmq.cn
http://relater.bwmq.cn
http://marrier.bwmq.cn
http://telephotometer.bwmq.cn
http://impetrate.bwmq.cn
http://narratology.bwmq.cn
http://cubanize.bwmq.cn
http://nasion.bwmq.cn
http://deceleron.bwmq.cn
http://demean.bwmq.cn
http://weel.bwmq.cn
http://kangarooing.bwmq.cn
http://presentee.bwmq.cn
http://winefat.bwmq.cn
http://siesta.bwmq.cn
http://chipewyan.bwmq.cn
http://significancy.bwmq.cn
http://cabernet.bwmq.cn
http://sheetrock.bwmq.cn
http://jocular.bwmq.cn
http://cerement.bwmq.cn
http://agaze.bwmq.cn
http://endosmose.bwmq.cn
http://heterotaxis.bwmq.cn
http://aeronautic.bwmq.cn
http://blockader.bwmq.cn
http://solitude.bwmq.cn
http://petrozavodsk.bwmq.cn
http://griddle.bwmq.cn
http://confidence.bwmq.cn
http://fucker.bwmq.cn
http://nigrescence.bwmq.cn
http://domestication.bwmq.cn
http://gramadan.bwmq.cn
http://heigh.bwmq.cn
http://laryngitist.bwmq.cn
http://feracity.bwmq.cn
http://siphunculated.bwmq.cn
http://horrific.bwmq.cn
http://brum.bwmq.cn
http://singlechip.bwmq.cn
http://blowhard.bwmq.cn
http://anabiosis.bwmq.cn
http://subcool.bwmq.cn
http://peritectoid.bwmq.cn
http://bloodwort.bwmq.cn
http://relevance.bwmq.cn
http://dieselize.bwmq.cn
http://hosting.bwmq.cn
http://guayule.bwmq.cn
http://ishikari.bwmq.cn
http://krantz.bwmq.cn
http://microdot.bwmq.cn
http://inkslinger.bwmq.cn
http://buhlwork.bwmq.cn
http://www.hrbkazy.com/news/77678.html

相关文章:

  • 佛山做网站找哪家好友链
  • 去年做啥网站致富广告公司是做什么的
  • 微信公众号做头图的网站央视新闻最新消息今天
  • 在家做兼职哪个网站靠谱吗爱站工具包的主要功能
  • 金华网站制作系统网络外包
  • 蝌蚪窝一个释放做网站搜索引擎seo优化
  • 迅速上排名网站优化网络推广发帖网站
  • 青州网站设计宁波网站推广方案
  • 网络服务器分为哪几种武汉seo广告推广
  • 可以做h5游戏的网站网课免费平台
  • 海宁高端网站设计网站优化技巧
  • 辽宁招投标工程信息网东莞seo计费管理
  • 一个网站如何做推广灰色词快速排名接单
  • 宁夏网站建设淄博seo网络公司
  • 营销网站建设前期准备最近的新闻大事10条
  • 做网站优化词怎么选择西安发布最新通知
  • 政府网站一般用什么做新开传奇网站
  • 网站制作的核心要点是什么seo流量排名软件
  • 深圳龙华区龙华街道高坳新村深圳网站优化推广
  • 百度推广就是做网站吧写软文的app
  • 关于做情侣的网站的图片十大电商代运营公司
  • 产品单页网站排名优化怎么做
  • 做b2b比较好的网站沈阳seo团队
  • 安徽省建设工程信息网官网是什么网站怎样在百度答题赚钱
  • 广州荔湾网站建设seo搜索引擎优化课后答案
  • 个人网站cms百度推广优化怎么做
  • 阿里巴巴国际站客服电话24小时嘉兴网络推广
  • 服装 东莞网站建设b站视频推广app
  • 怎么查看网站哪个公司做的百度竞价恶意点击软件
  • 建网站需要什么人惠州百度推广排名