当前位置: 首页 > news >正文

深圳网站 建设信科网络龙岗网站设计

深圳网站 建设信科网络,龙岗网站设计,网站备案时间查询,销售网站建设怎么样机器学习笔记之近似推断——从深度学习角度认识推断引言推断——基本介绍精确推断难的原因虽然能够表示,但计算代价太大无法直接表示引言 本节是一篇关于推断总结的博客,侧重点在于深度学习模型中的推断任务。 推断——基本介绍 推断(Inference\text{…

机器学习笔记之近似推断——从深度学习角度认识推断

  • 引言
    • 推断——基本介绍
    • 精确推断难的原因
      • 虽然能够表示,但计算代价太大
      • 无法直接表示

引言

本节是一篇关于推断总结的博客,侧重点在于深度学习模型中的推断任务。

推断——基本介绍

推断(Inference\text{Inference}Inference)——我们并不陌生,在介绍的每一个概率模型,基本都涉及到推断问题。关于概率模型的三大核心问题分别是:表示(Representation\text{Representation}Representation),推断学习(Learning\text{Learning}Learning)。我们从深度模型,主要是深度生成模型所涉及的推断任务出发,对推断进行描述。

首先,是什么样的原因,导致了推断这个任务的发生?换句话说,推断的动机是什么。

  • 我们基于可观察的样本特征X\mathcal XX,构建概率图模型。如果包含隐变量Z\mathcal ZZ,而隐变量Z\mathcal ZZ绝大多数情况下没有物理意义,它只是我们建模过程中人工设置出来的随机变量。

    Z\mathcal ZZ一上来就是未知的,但为了完善被构建的模型,我们有必要了解隐变量Z\mathcal ZZ的特征信息。从哪里去了解/通过什么渠道去了解Z\mathcal ZZ? 从 样本X\mathcal XX

    当样本X\mathcal XX进入到模型后,Z\mathcal ZZ会产生什么样的反映,而这个反映就是隐变量Z\mathcal ZZ的特征信息,即P(Z∣X)\mathcal P(\mathcal Z \mid \mathcal X)P(ZX)。而推断就是求解Z\mathcal ZZ特征信息P(Z∣X)\mathcal P(\mathcal Z \mid \mathcal X)P(ZX)的手段。因此:推断的第一个动机就是推断自身。我们需要通过样本X\mathcal XX的渠道,将Z\mathcal ZZ的特征信息描述出来

  • 关于推断的另一个动机来自于模型的学习任务。也就是说,在模型参数θ\thetaθ的学习过程中,可能存在 不可避免地使用推断

    一个经典例子就是受限玻尔兹曼机(Restricted Boltzmann Machine,RBM\text{Restricted Boltzmann Machine,RBM}Restricted Boltzmann Machine,RBM)。在受限玻尔兹曼机基于极大似然估计来求解对数似然梯度∇θ[log⁡P(v(i);θ)]\nabla_{\theta} \left[\log \mathcal P(v^{(i)};\theta)\right]θ[logP(v(i);θ)]的过程中,可将对数似然梯度描述为如下形式:

    • 需要注意的是,针对某个观测样本v(i)v^{(i)}v(i),我们并没有将所有参数的对数似然梯度都求出来,仅求解的是v(i)v^{(i)}v(i)中某一随机变量vj(i)v_j^{(i)}vj(i)与对应模型中隐变量h(i)h^{(i)}h(i)的某一随机变量hk(i)h_k^{(i)}hk(i)之间的模型参数Wvj(i)⇔hk(i)\mathcal W_{v_j^{(i)} \Leftrightarrow h_k^{(i)}}Wvj(i)hk(i)的对数似然梯度。
    • 关于hj(i)h_j^{(i)}hj(i)是一个服从‘伯努利分布’的随机变量,完整推导过程见上述链接。
      ∇θ[log⁡P(v(i);θ)]⇒∂∂Wvj(i)⇔hk(i)[log⁡P(v(i);θ)]=P(hk(i)=1∣v(i))⋅vj(i)⏟第一项−∑v(i)P(v(i))⋅P(hk(i)=1∣v(i))⋅vj(i)⏟第二项\begin{aligned} \nabla_{\theta} \left[\log \mathcal P(v^{(i)};\theta)\right] & \Rightarrow \frac{\partial}{\partial \mathcal W_{v_j^{(i)} \Leftrightarrow h_k^{(i)}}} \left[\log \mathcal P(v^{(i)};\theta)\right] \\ & = \underbrace{\mathcal P(h_k^{(i)} = 1 \mid v^{(i)}) \cdot v_j^{(i)}}_{第一项} - \underbrace{\sum_{v^{(i)}} \mathcal P(v^{(i)}) \cdot \mathcal P(h_k^{(i)} = 1 \mid v^{(i)}) \cdot v_j^{(i)}}_{第二项} \end{aligned}θ[logP(v(i);θ)]Wvj(i)hk(i)[logP(v(i);θ)]=第一项P(hk(i)=1v(i))vj(i)第二项v(i)P(v(i))P(hk(i)=1v(i))vj(i)

    关于上述的对数似然梯度结果,第一项中的P(hk(i)=1∣v(i))\mathcal P(h_k^{(i)} = 1 \mid v^{(i)})P(hk(i)=1v(i))就用到了后验概率的推断结果
    推导过程详见受限玻尔兹曼机——推断任务(后验概率),这里nnn表示v(i)v^{(i)}v(i)中随机变量结点的个数。
    P(hk(i)=1∣v(i))=Sigmoid(∑j=1nWhk(i)⇔vj(i)⋅vj(i)+ck(i))\mathcal P(h_k^{(i)} = 1 \mid v^{(i)}) = \text{Sigmoid}\left(\sum_{j=1}^n \mathcal W_{h_k^{(i)}\Leftrightarrow v_j^{(i)}} \cdot v_j^{(i)} + c_k^{(i)}\right)P(hk(i)=1v(i))=Sigmoid(j=1nWhk(i)vj(i)vj(i)+ck(i))
    这明显是一个精确推断(Precise Inference\text{Precise Inference}Precise Inference)。相反,同样使用推断的方式进行求解,使用对比散度这种近似推断的方式加快采样速度。
    由于这里重点描述的是‘推断’与‘学习任务’之间的关联关系,这里就不展开求解了.

    另一个经典例子就是EM\text{EM}EM算法(Expectation Maximization,EM\text{Expectation Maximization,EM}Expectation Maximization,EM)。它的E\text{E}E步可表示为如下形式:
    log⁡P(X;θ)=∫ZQ(Z)⋅log⁡P(X∣θ)dZ=∫ZQ(Z)log⁡P(X,Z;θ)Q(Z)dZ⏟ELBO+{−∫ZQ(Z)log⁡P(Z∣X)Q(Z)dZ}⏟KL Divergence\begin{aligned} \log \mathcal P(\mathcal X ; \theta) & = \int_{\mathcal Z} \mathcal Q(\mathcal Z) \cdot \log \mathcal P(\mathcal X \mid \theta) d\mathcal Z \\ & = \underbrace{\int_{\mathcal Z} \mathcal Q(\mathcal Z) \log \frac{\mathcal P(\mathcal X,\mathcal Z;\theta)}{\mathcal Q(\mathcal Z)}d\mathcal Z}_{\text{ELBO}} + \underbrace{\left\{- \int_{\mathcal Z} \mathcal Q(\mathcal Z) \log \frac{\mathcal P(\mathcal Z \mid \mathcal X)}{\mathcal Q(\mathcal Z)} d\mathcal Z\right\}}_{\text{KL Divergence}} \end{aligned}logP(X;θ)=ZQ(Z)logP(Xθ)dZ=ELBOZQ(Z)logQ(Z)P(X,Z;θ)dZ+KL Divergence{ZQ(Z)logQ(Z)P(ZX)dZ}
    其中X\mathcal XX是基于样本的随机变量集合;Q(Z)\mathcal Q(\mathcal Z)Q(Z)人为设定的、关于隐变量Z\mathcal ZZ的分布;如果关于Z\mathcal ZZ的后验分布P(Z∣X)\mathcal P(\mathcal Z \mid \mathcal X)P(ZX)可求解,即Q(Z)=P(Z∣X)\mathcal Q(\mathcal Z) = \mathcal P(\mathcal Z \mid \mathcal X)Q(Z)=P(ZX),那么此时KL Divergence=0\text{KL Divergence} = 0KL Divergence=0,自然可以使用参数迭代逼近 的方式对模型参数θ\thetaθ进行迭代求解:
    其中的Q(Z)=P(Z∣X)\mathcal Q(\mathcal Z) = \mathcal P(\mathcal Z \mid \mathcal X)Q(Z)=P(ZX)明显是一种对P(Z∣X)\mathcal P(\mathcal Z \mid \mathcal X)P(ZX)的精确推断。
    {log⁡P(X;θ)=ELBO(KL Divergence=0)θ(t+1)=arg⁡max⁡θ[∫ZP(Z∣X,θ(t))log⁡P(X,Z;θ)dZ]\begin{cases} \log \mathcal P(\mathcal X;\theta) = \text{ELBO} \quad (\text{KL Divergence} = 0) \\ \theta^{(t+1)} = \mathop{\arg\max}\limits_{\theta} \left[\int_{\mathcal Z} \mathcal P(\mathcal Z \mid \mathcal X,\theta^{(t)}) \log \mathcal P(\mathcal X , \mathcal Z;\theta) d\mathcal Z\right] \end{cases}logP(X;θ)=ELBO(KL Divergence=0)θ(t+1)=θargmax[ZP(ZX,θ(t))logP(X,Z;θ)dZ]
    但实际情况下,关于隐变量Z\mathcal ZZ的后验分布P(Z∣X)\mathcal P(\mathcal Z \mid \mathcal X)P(ZX)可能无法精确求解,此时Q(Z)\mathcal Q(\mathcal Z)Q(Z)的作用就是逼近当前迭代步骤中的P(Z∣X)\mathcal P(\mathcal Z \mid \mathcal X)P(ZX),使得当前迭代步骤的ELBO\text{ELBO}ELBO达到最大;再将当前迭代步骤最优近似分布Q(Z)\mathcal Q(\mathcal Z)Q(Z)带回ELBO\text{ELBO}ELBO中,从而求出当前迭代步骤的最优参数。这就是广义EM\text{EM}EM算法

    • 相对于EM算法过程,因P(Z∣X)\mathcal P(\mathcal Z \mid \mathcal X)P(ZX)自身无法精确求解的问题,广义EM算法使得分布Q(Z)≈P(Z∣X)\mathcal Q(\mathcal Z) \approx \mathcal P(\mathcal Z \mid \mathcal X)Q(Z)P(ZX)这明显是一种近似推断。
    • 下面描述给定ttt时刻模型参数θ(t)\theta^{(t)}θ(t)的条件下,求解t+1t+1t+1时刻E\text{E}E步的近似分布Q^(t+1)(Z)\hat {\mathcal Q}^{(t+1)}(\mathcal Z)Q^(t+1)(Z)t+1t+1t+1时刻M\text{M}M步最优参数θ(t+1)\theta^{(t+1)}θ(t+1)的过程。
      {Q^(t+1)(Z)=arg⁡max⁡Q(Z)∫ZQ(Z)log⁡P(X,Z;θ(t))Q(Z)dZ⏟ELBO⇔arg⁡min⁡Q(Z)−∫ZQ(Z)log⁡P(Z∣X)Q(Z)dZ⏟KL Divergenceθ(t+1)=arg⁡max⁡θ∫ZQ^(t+1)(Z)log⁡P(X,Z;θ)Q^(t+1)(Z)dZ⏟ELBO\begin{cases} \hat {\mathcal Q}^{(t+1)}(\mathcal Z) = \mathop{\arg\max}\limits_{\mathcal Q(\mathcal Z)} \underbrace{\int_{\mathcal Z} \mathcal Q(\mathcal Z) \log \frac{\mathcal P(\mathcal X,\mathcal Z;\theta^{(t)})}{\mathcal Q(\mathcal Z)} d\mathcal Z}_{\text{ELBO}} \Leftrightarrow \mathop{\arg\min}\limits_{\mathcal Q(\mathcal Z)} \underbrace{- \int_{\mathcal Z} \mathcal Q(\mathcal Z) \log \frac{\mathcal P(\mathcal Z \mid \mathcal X)}{\mathcal Q(\mathcal Z)} d\mathcal Z}_{\text{KL Divergence}}\\ \theta^{(t+1)} = \mathop{\arg\max}\limits_{\theta} \underbrace{\int_{\mathcal Z} \hat {\mathcal Q}^{(t+1)}(\mathcal Z) \log \frac{\mathcal P(\mathcal X,\mathcal Z ;\theta)}{\hat {\mathcal Q}^{(t+1)}(\mathcal Z)}d\mathcal Z}_{\text{ELBO}} \end{cases}Q^(t+1)(Z)=Q(Z)argmaxELBOZQ(Z)logQ(Z)P(X,Z;θ(t))dZQ(Z)argminKL DivergenceZQ(Z)logQ(Z)P(ZX)dZθ(t+1)=θargmaxELBOZQ^(t+1)(Z)logQ^(t+1)(Z)P(X,Z;θ)dZ

    这两个模型参数学习的例子(一个是学习参数梯度,一个是迭代学习参数),它们都不可避免地对隐变量的后验分布进行推断。

精确推断难的原因

虽然能够表示,但计算代价太大

为什么要近似推断?最核心的原因是:精确推断非常困难。也就是说,精确推断的代价太大了

  • 依然以上述受限玻尔兹曼机对数似然梯度求解过程中的第二项为例:
    ∑v(i)P(v(i))⋅P(hk(i)=1∣v(i))⋅vj(i)\sum_{v^{(i)}} \mathcal P(v^{(i)}) \cdot \mathcal P(h_k^{(i)} = 1 \mid v^{(i)}) \cdot v_j^{(i)}v(i)P(v(i))P(hk(i)=1v(i))vj(i)
    其中,∑v(i)\sum_{v^{(i)}}v(i)表示样本数量的连加项,有NNN项;如果观测变量V\mathcal VV中包含nnn个随机变量,即:v(i)=(v1(i),v2(i),⋯,vn(i))n×1Tv^{(i)} = (v_1^{(i)},v_2^{(i)},\cdots,v_n^{(i)})_{n \times 1}^Tv(i)=(v1(i),v2(i),,vn(i))n×1T,并且各观测变量之间相互独立且均服从伯努利分布。那么P(v(i))\mathcal P(v^{(i)})P(v(i))可表示为如下形式:
    P(v(i))=∏m=1nP(vm(i))\mathcal P(v^{(i)}) = \prod_{m=1}^n \mathcal P(v_m^{(i)})P(v(i))=m=1nP(vm(i))
    仅仅P(v(i))\mathcal P(v^{(i)})P(v(i))一项的复杂度就是O(2n)\mathcal O(2^n)O(2n);暂时不考虑P(hk(i)=1∣v(i))\mathcal P(h_k^{(i)} = 1 \mid v^{(i)})P(hk(i)=1v(i))Sigmoid\text{Sigmoid}Sigmoid函数内线性计算的复杂度,上式中的复杂度 至少是O(N⋅2n)\mathcal O(N\cdot 2^n)O(N2n)能算吗?能算,但样本足够多的情况下,代价可看作是无穷大
    这还仅仅是将随机变量设置成最简单的伯努利分布,如果复杂度出现‘指数级别’,就可看做是‘无法求解的’(Intractable\text{Intractable}Intractable).

上述的例子可以根据受限玻尔兹曼机自身关于随机变量的约束能够将复杂的概率分布进行分解,只是分解出的结果计算量太大

无法直接表示

然而存在一些模型,模型内部随机变量关联关系复杂的同时,还十分没有章法。最终导致联合概率分布连分解都做不到

由于受限玻尔兹曼机的条件约束,使得隐变量、观测变量内部均条件独立。但并不是说受限玻尔兹曼机比玻尔兹曼机性能更强大(powerful\text{powerful}powerful),而是玻尔兹曼机仅是理论上的产物,太过于理想化。在真实环境中没有实际作用;

相反受限玻尔兹曼机通过增加约束,使得隐变量的后验分布P(Z∣X)\mathcal P(\mathcal Z \mid \mathcal X)P(ZX)能够准确表示出来。相当于 放弃了模型复杂度,而去追求计算上的可行性
与之相似的还有‘隐马尔可夫模型’中的齐次马尔可夫假设与观测独立性假设,它们都是放弃复杂度、追求计算可行性的典型示例。

可以看出,无向图模型无法直接表示后验概率的主要原因在于随机变量结点之间关联关系过于复杂,从而无法实现条件独立性;而有向图模型无法直接表示后验概率的主要原因在于随机变量之间的结构关系,从而无法实现条件独立性

相关参考:
(系列二十五)近似推断1-介绍


文章转载自:
http://sinhalite.wjrq.cn
http://pony.wjrq.cn
http://laingian.wjrq.cn
http://colorado.wjrq.cn
http://appointer.wjrq.cn
http://replicable.wjrq.cn
http://knockwurst.wjrq.cn
http://knurly.wjrq.cn
http://spirochete.wjrq.cn
http://client.wjrq.cn
http://shaft.wjrq.cn
http://greyhound.wjrq.cn
http://valet.wjrq.cn
http://flotsam.wjrq.cn
http://camoufleur.wjrq.cn
http://synactic.wjrq.cn
http://hypersexual.wjrq.cn
http://gospodin.wjrq.cn
http://torque.wjrq.cn
http://cardiant.wjrq.cn
http://bucolically.wjrq.cn
http://pamplegia.wjrq.cn
http://hypoglycemia.wjrq.cn
http://silk.wjrq.cn
http://ribald.wjrq.cn
http://xenon.wjrq.cn
http://panencephalitis.wjrq.cn
http://damningly.wjrq.cn
http://kineme.wjrq.cn
http://ichthyosaurus.wjrq.cn
http://harle.wjrq.cn
http://waspie.wjrq.cn
http://stratoscope.wjrq.cn
http://retarded.wjrq.cn
http://chromatist.wjrq.cn
http://gippo.wjrq.cn
http://vaticanist.wjrq.cn
http://monostable.wjrq.cn
http://gingery.wjrq.cn
http://multiped.wjrq.cn
http://superordinary.wjrq.cn
http://consul.wjrq.cn
http://hypercorrect.wjrq.cn
http://rubberlike.wjrq.cn
http://incite.wjrq.cn
http://circumsolar.wjrq.cn
http://planform.wjrq.cn
http://encomiast.wjrq.cn
http://expeditiousness.wjrq.cn
http://hippocampal.wjrq.cn
http://cylices.wjrq.cn
http://anhydro.wjrq.cn
http://bible.wjrq.cn
http://garganey.wjrq.cn
http://ridotto.wjrq.cn
http://inadequate.wjrq.cn
http://bleary.wjrq.cn
http://vivid.wjrq.cn
http://aphylly.wjrq.cn
http://culvert.wjrq.cn
http://mucilaginous.wjrq.cn
http://hammerless.wjrq.cn
http://polaris.wjrq.cn
http://ashimmer.wjrq.cn
http://creation.wjrq.cn
http://crunchiness.wjrq.cn
http://quale.wjrq.cn
http://saveloy.wjrq.cn
http://blower.wjrq.cn
http://mrcp.wjrq.cn
http://counterattraction.wjrq.cn
http://frankincense.wjrq.cn
http://canescent.wjrq.cn
http://cacodylic.wjrq.cn
http://forehand.wjrq.cn
http://sporangiophore.wjrq.cn
http://senatorial.wjrq.cn
http://liaise.wjrq.cn
http://nazareth.wjrq.cn
http://depolymerize.wjrq.cn
http://coyly.wjrq.cn
http://unwholesome.wjrq.cn
http://lacerant.wjrq.cn
http://patience.wjrq.cn
http://phimosis.wjrq.cn
http://chemotaxis.wjrq.cn
http://realizable.wjrq.cn
http://biliverdin.wjrq.cn
http://euphorbia.wjrq.cn
http://intonate.wjrq.cn
http://airiness.wjrq.cn
http://exophthalmia.wjrq.cn
http://subeditor.wjrq.cn
http://monovular.wjrq.cn
http://windproof.wjrq.cn
http://epure.wjrq.cn
http://anthozoa.wjrq.cn
http://vitriolate.wjrq.cn
http://pi.wjrq.cn
http://diproton.wjrq.cn
http://www.hrbkazy.com/news/62643.html

相关文章:

  • 南阳做网站多少钱公司网站推广方法
  • 做网站开发要装什么软件app引流推广方法
  • 西安php网站建设专家品牌推广策划书范文案例
  • adsl做网站站长工具免费
  • 北京seo加盟小江seo
  • 如何做网站的页面网络推广的方式有哪些
  • 赌球网站开发建立网站的主要步骤
  • 如何分析一个网站的用户互联网公司有哪些
  • 网站建设论文标题合肥关键词优化平台
  • 株洲专业网站建设推广策划方案模板
  • 怎样用vs做网站如何做推广和引流
  • 靠网络营销火起来的企业seo外贸网站制作
  • 学做网站需要软文有哪些推广渠道
  • 重庆双福建设开发有限公司网站软文网站模板
  • 显示网站目录网站seo教材
  • 重庆是哪个省属于哪个省英文外链seo兼职在哪里找
  • 上海公司网站设计东莞seo收费
  • 网站一键制作网站模板之家免费下载
  • 男女做那个视频网站seo诊断a5
  • 网站标题优化 英文广告文案经典范例200字
  • 坂田网站建设推广公司百度站长联盟
  • wordpress 最大上传限制商品标题优化
  • 软文营销范文徐州百度快照优化
  • 域名对seo的影响南昌seo顾问
  • 建立个人网站流程seo网站营销公司哪家好
  • 用什么制作网站关键词收录查询工具
  • 网站建设预算表百度免费优化
  • wordpress js调用图片优化软件刷排名seo
  • 网站做描本好处广东广州网点快速网站建设
  • 代做ppt网站广东seo点击排名软件哪里好