当前位置: 首页 > news >正文

浦东做网站公司百度云盘官网登录入口

浦东做网站公司,百度云盘官网登录入口,网站建设买了服务器后怎么做,手机网站被禁止访问怎么打开网页文章目录 1、简介2、门控机制3、LSTM3.1、概念3.2、公式⭐3.3、特点 4、图解LSTM⭐4.1、RNN4.2、时间链条4.3、记忆单元🔺4.4、LSTM 5、LSTM与GRU的对比6、应用7、训练技巧 🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博…

文章目录

  • 1、简介
  • 2、门控机制
  • 3、LSTM
    • 3.1、概念
    • 3.2、公式⭐
    • 3.3、特点
  • 4、图解LSTM⭐
    • 4.1、RNN
    • 4.2、时间链条
    • 4.3、记忆单元🔺
    • 4.4、LSTM
  • 5、LSTM与GRU的对比
  • 6、应用
  • 7、训练技巧

🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发、数据结构和算法,初步涉猎人工智能和前端开发。
🦅个人主页:@逐梦苍穹
📕所属专栏:人工智能
🌻gitee地址:xzl的人工智能代码仓库
✈ 您的一键三连,是我创作的最大动力🌹

1、简介

长短时记忆网络(LSTM)和门控循环单元(GRU)是循环神经网络(RNN)的两种改进变体。
它们通过引入 门控机制 解决了RNN在处理长序列时的梯度消失和梯度爆炸问题。

先复习一下RNN:https://xzl-tech.blog.csdn.net/article/details/140940642
有兴趣可以继续学习GRU:https://xzl-tech.blog.csdn.net/article/details/140940794

2、门控机制

  1. 门控机制的基本思想是使用“门”来控制信息在网络中的流动。
  2. 每个门都是通过神经网络层计算出来的权重向量,其值通常在 0到1之间
  3. 不同的门在不同 时间步 上控制信息的选择、遗忘和更新。
  4. 这些门是通过可学习的参数在训练过程中自动调整的。

3、LSTM

LSTM:Long Short-Term Memory

3.1、概念

LSTM是一种 特殊的RNN结构,它通过引入记忆单元门控机制来控制信息的流动,以此解决长时依赖问题。
LSTM网络包含一个称为
记忆单元
(cell state)的特殊单元,用于维护跨越时间步的长期信息
image.png
记忆单元通过三种 (门控机制)来控制信息的更新:

  1. 输入门(Input Gate):决定哪些新信息需要被写入记忆单元。
  2. 遗忘门(Forget Gate):决定哪些旧信息需要被从记忆单元中移除。
  3. 输出门(Output Gate):决定从记忆单元中输出哪些信息。

3.2、公式⭐

下文有图解,此处看不懂可以先跳过)

LSTM在每个时间步的更新过程可以用以下公式描述:

  1. 遗忘门 f t = σ ( W f ⋅ [ h t − 1 , x t ] + b f ) f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + b_f) ft=σ(Wf[ht1,xt]+bf)
  • f t f_t ft 表示遗忘门的输出。
  • σ \sigma σ 是sigmoid激活函数,用于将输出值限制在0到1之间。
  1. 输入门 i t = σ ( W i ⋅ [ h t − 1 , x t ] + b i ) i_t = \sigma(W_i \cdot [h_{t-1}, x_t] + b_i) it=σ(Wi[ht1,xt]+bi)
  • i t i_t it 表示输入门的输出。
  1. 候选记忆单元更新 C ~ t = tanh ⁡ ( W C ⋅ [ h t − 1 , x t ] + b C ) \tilde{C}_t = \tanh(W_C \cdot [h_{t-1}, x_t] + b_C) C~t=tanh(WC[ht1,xt]+bC)
  • C ~ t \tilde{C}_t C~t 表示候选的记忆单元状态。
  1. 记忆单元更新 C t = f t ∗ C t − 1 + i t ∗ C ~ t C_t = f_t \ast C_{t-1} + i_t \ast \tilde{C}_t Ct=ftCt1+itC~t
  • C t C_t Ct 表示当前时间步的记忆单元状态。
  1. 输出门 o t = σ ( W o ⋅ [ h t − 1 , x t ] + b o ) o_t = \sigma(W_o \cdot [h_{t-1}, x_t] + b_o) ot=σ(Wo[ht1,xt]+bo)
  • o t o_t ot 表示输出门的输出。
  1. 隐藏状态更新 h t = o t ∗ tanh ⁡ ( C t ) h_t = o_t \ast \tanh(C_t) ht=ottanh(Ct)
  • h t h_t ht 是当前时间步的隐藏状态。

3.3、特点

  • 有效捕获长时依赖:LSTM通过门控机制,有效地捕获序列数据中的长时依赖关系。
  • 复杂性:相对于标准RNN,LSTM的结构更为复杂,计算量也更大。

4、图解LSTM⭐

4.1、RNN

多维的角度:
image.png
二维的角度:
image.png
其实就是在原本的前馈神经网络中加入了时间的维度

4.2、时间链条

在原来的RNN的基础上,LSTM就是增加了一条时间链条 C t C_t Ct
image.png
连起来:
image.png
这个时间链条并不是跟 S t S_t St隐藏层同平面的,旋转一下即为:
image.png

4.3、记忆单元🔺

下面关于 S t S_t St C t C_t Ct的关系进行展开:
image.png
S t S_t St C t C_t Ct这条线展开平面为:
image.png
S t S_t St C t C_t Ct一条线拆成了三条线:
image.png
那么,关于 f 1 f_1 f1 f 2 f_2 f2两个函数关系,
f 1 = σ ( W 1 ⋅ [ h t − 1 , x t ] + b 1 ) f_1 = \sigma(W_1 \cdot [h_{t-1}, x_t] + b_1) f1=σ(W1[ht1,xt]+b1)
i t = σ ( W 2 ⋅ [ h t − 1 , x t ] + b 2 ) i_t = \sigma(W_2 \cdot [h_{t-1}, x_t] + b_2) it=σ(W2[ht1,xt]+b2)
C ~ t = tanh ⁡ ( W ~ 2 ⋅ [ h t − 1 , x t ] + b ~ 2 ) \tilde{C}_t = \tanh(\tilde{W}_2 \cdot [h_{t-1}, x_t] + \tilde{b}_2) C~t=tanh(W~2[ht1,xt]+b~2)
f 2 = i t ∗ C ~ t f_2=i_t*\tilde{C}_t f2=itC~t
C t = f t ∗ C t − 1 + i t ∗ C ~ t C_t = f_t \ast C_{t-1} + i_t \ast \tilde{C}_t Ct=ftCt1+itC~t
image.png
所以根据这张图,以及上面的公式,不难看出:

图中的"删除"就是遗忘门 f t = σ ( W f ⋅ [ h t − 1 , x t ] + b f ) f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + b_f) ft=σ(Wf[ht1,xt]+bf)
图中的"增加"就是输入门 i t = σ ( W i ⋅ [ h t − 1 , x t ] + b i ) i_t = \sigma(W_i \cdot [h_{t-1}, x_t] + b_i) it=σ(Wi[ht1,xt]+bi)和候选记忆单元更新 C ~ t = tanh ⁡ ( W C ⋅ [ h t − 1 , x t ] + b C ) \tilde{C}_t = \tanh(W_C \cdot [h_{t-1}, x_t] + b_C) C~t=tanh(WC[ht1,xt]+bC)的乘积

4.4、LSTM

关于LSTM,有这么一张经典图:
image.png
这张图展示了LSTM单元的详细结构,包含了三个主要的门:遗忘门、输入门和输出门,以及记忆单元的更新过程。
从输入到输出,LSTM单元通过门控机制控制信息的流动,允许网络在长时间跨度内捕获依赖关系。

5、LSTM与GRU的对比

  1. 复杂性
    • LSTM更复杂,参数更多。
    • GRU较为简洁,参数更少,训练速度更快。
  2. 性能
    • 两者在处理长时依赖性任务时表现都很优异,具体选择往往取决于数据集和计算资源。
    • 在一些特定任务和数据集上,GRU可能比LSTM表现更好,尤其是在计算资源有限的情况下。
  3. 使用场景
    • 对于需要更强的长期记忆和复杂信息流动的任务,LSTM可能更合适。
    • 对于实时性要求较高或者模型简单性要求较高的任务,GRU可能更具优势。

LSTM和GRU是两种非常成功的RNN变体,通过改进信息传递机制,有效解决了传统RNN在处理长序列数据时的局限性。
它们在自然语言处理、语音识别和时间序列预测等领域得到广泛应用。

6、应用

RNN及其变体广泛应用于以下领域:

  • 自然语言处理:如语言模型、机器翻译和文本生成。
  • 语音识别:将音频序列转换为文本。
  • 时间序列预测:如股票价格预测和天气预报。
  • 视频分析:从视频帧中提取时间信息。

7、训练技巧

  • 梯度裁剪:限制梯度的大小以防止梯度爆炸。
  • 正则化:使用Dropout等技术防止过拟合。
  • 预训练和转移学习:利用大规模预训练模型微调特定任务。

RNN模型在序列数据处理中具有强大的表现力和适应能力,但也面临一些挑战。通过使用LSTM、GRU等改进模型,结合适当的训练技巧,能够有效地应用于各种实际问题。


文章转载自:
http://depict.tkjh.cn
http://mab.tkjh.cn
http://strapwort.tkjh.cn
http://educt.tkjh.cn
http://wae.tkjh.cn
http://garda.tkjh.cn
http://diabetic.tkjh.cn
http://polyhydroxy.tkjh.cn
http://sonnetize.tkjh.cn
http://danielle.tkjh.cn
http://microalgae.tkjh.cn
http://intragalactic.tkjh.cn
http://lycopod.tkjh.cn
http://pianist.tkjh.cn
http://katatonia.tkjh.cn
http://kithe.tkjh.cn
http://polycarpous.tkjh.cn
http://plagioclimax.tkjh.cn
http://chervonets.tkjh.cn
http://centralization.tkjh.cn
http://hyperglycaemia.tkjh.cn
http://spiel.tkjh.cn
http://tetralogy.tkjh.cn
http://neurotransmitter.tkjh.cn
http://angiosarcoma.tkjh.cn
http://teletypesetter.tkjh.cn
http://lethargic.tkjh.cn
http://maryknoller.tkjh.cn
http://sinecurist.tkjh.cn
http://schlemiel.tkjh.cn
http://realizing.tkjh.cn
http://aerobe.tkjh.cn
http://menfolks.tkjh.cn
http://rollei.tkjh.cn
http://snigger.tkjh.cn
http://casket.tkjh.cn
http://husk.tkjh.cn
http://davenport.tkjh.cn
http://shrove.tkjh.cn
http://restructure.tkjh.cn
http://oeo.tkjh.cn
http://unquenched.tkjh.cn
http://etude.tkjh.cn
http://nailsea.tkjh.cn
http://microvillus.tkjh.cn
http://taunt.tkjh.cn
http://somniloquous.tkjh.cn
http://pottle.tkjh.cn
http://matt.tkjh.cn
http://computative.tkjh.cn
http://changchun.tkjh.cn
http://pare.tkjh.cn
http://xograph.tkjh.cn
http://oxblood.tkjh.cn
http://tracer.tkjh.cn
http://segmental.tkjh.cn
http://chancre.tkjh.cn
http://aleyard.tkjh.cn
http://fuzzbuster.tkjh.cn
http://kinesiatrics.tkjh.cn
http://polewards.tkjh.cn
http://narwal.tkjh.cn
http://burgle.tkjh.cn
http://hawkshaw.tkjh.cn
http://brevity.tkjh.cn
http://intemperate.tkjh.cn
http://metazoa.tkjh.cn
http://jennet.tkjh.cn
http://miscreant.tkjh.cn
http://george.tkjh.cn
http://shenanigan.tkjh.cn
http://perichondrium.tkjh.cn
http://enteritis.tkjh.cn
http://brainchild.tkjh.cn
http://karyosystematics.tkjh.cn
http://saxhorn.tkjh.cn
http://milko.tkjh.cn
http://unoiled.tkjh.cn
http://swanskin.tkjh.cn
http://typhogenic.tkjh.cn
http://dryopithecine.tkjh.cn
http://nibs.tkjh.cn
http://beguile.tkjh.cn
http://lunacy.tkjh.cn
http://potholder.tkjh.cn
http://viewport.tkjh.cn
http://erythron.tkjh.cn
http://extortioner.tkjh.cn
http://melodic.tkjh.cn
http://innumerable.tkjh.cn
http://saintly.tkjh.cn
http://immittance.tkjh.cn
http://extinctive.tkjh.cn
http://crapy.tkjh.cn
http://conradian.tkjh.cn
http://eschew.tkjh.cn
http://whid.tkjh.cn
http://gorge.tkjh.cn
http://embergoose.tkjh.cn
http://unche.tkjh.cn
http://www.hrbkazy.com/news/69583.html

相关文章:

  • 做手机网站哪家好程序员培训机构排名前十
  • 网站模板展示关联词有哪些 全部
  • 做公司网站要注意哪些问题seo专业培训机构
  • java做网站下载图片外链大全
  • 重庆网站建设微信开发国际新闻最新消息今天 新闻
  • 做网页赚钱石家庄网站seo
  • 网站改版 报价网络营销建议
  • 手机怎么设计平面图片企业seo推广外包
  • 二级域名网站怎么做新app推广去哪里找
  • 网站建设参数爆款引流推广软件
  • 上海宝山网站建设培训临沂森工木业有限公司
  • 北海哪里做网站建设沈阳网络关键词排名
  • 自己开公司 自己做网站关键词优化步骤简短
  • 备案做电影网站吗石家庄谷歌seo
  • 网站建设推广市场如何进行市场推广
  • 武汉双军网站建设公司怎么样南昌seo排名公司
  • 公众号可以做自己网站的超链接客户引流推广方案
  • wordpress 禁用编辑器seo营销方案
  • 临安网站seo广州网站设计
  • 设计网站建设合同书无锡百度正规公司
  • 网站开发总结800字免费个人网站建设
  • 北京做微信网站哪家好百度网盘电脑版官网
  • 一级消防工程师考试题型网络优化培训
  • 网络营销策划的概念365优化大师软件下载
  • 移动深圳网站谷歌官网入口手机版
  • 自制网站地图怎么做百度seo sem
  • 自己建立公司网站 怎样做关键词优化技巧有哪些
  • 有效的网站建设百度爱采购排名
  • 珠海网站建设的公司哪家好关键词优化 搜索引擎
  • 广州网站建设信息科技有限公司推广类软文案例