当前位置: 首页 > news >正文

做私人没有备案的网站口碑优化seo

做私人没有备案的网站,口碑优化seo,成都网站制作沈阳,html网页制作代码大全期末文章目录 序言相同点不同点测试实例应用 序言 .detach()和.data都可以用来分离tensor数据,下面进行比较pytorch0.4及之后的版本,.data仍保留,但建议使用.detach() 相同点 x.detach()和x.data返回和x相同数据的tensor,这个新的t…

文章目录

        • 序言
        • 相同点
        • 不同点
        • 测试实例
        • 应用

序言
  • .detach()和.data都可以用来分离tensor数据,下面进行比较
  • pytorch0.4及之后的版本,.data仍保留,但建议使用.detach()
相同点
  • x.detach()和x.data返回和x相同数据的tensor,这个新的tensor和原来的tensor共用数据,一者改变,另一者也会跟着改变
  • 新分离得到的tensor的requires_grad = False, 即不可求导的
不同点
  • (1) .data是一个属性,.detach()是一个方法
  • (2) x.data不能被autograd追踪求微分,即使被改了也能错误求导;x.detach()也不能被autograd追踪求微分,被改了会直接报错,避免错误的产生
  • (3) .data是不安全的,.detach()是安全的
测试实例
  • .data测试

    import torcha = torch.tensor([1 ,2 ,3.], requires_grad = True)  # float类型,支持求导
    out = a.sigmoid()
    print(out)    # 输出(0.0, 1.0)结果
    b = out.data  # 分离tensor
    b.zero_()     # 改变b的值,原来的out也会改变
    print(b.requires_grad)  # .data后requires_grad=False
    print(b)                # 归0后的值 tensor([0., 0., 0.])
    print(out.requires_grad)    # out的requires_grad=True
    print(out)                  # b的值改变了out也变了 tensor([0., 0., 0.])
    print("----------------------------------------------")out.sum().backward()  # 对原来的out求导
    print(a.grad)         # 不会报错,但结果不正确
    
    • 更改分离之后的变量值b,导致原来的张量out的值也跟着改变
    • 但是这种改变对于autograd是没有察觉的,它依然按照求导规则来求导,导致得出完全错误的导数值却浑然不知
    • 它的风险性就是如果我再任意一个地方更改了某一个张量,求导的时候也没有通知我已经在某处更改了,导致得出的导数值完全不正确
  • .detach()测试

    import torcha = torch.tensor([4, 5, 6.], requires_grad=True)
    out = a.sigmoid()
    print(out)
    c = out.detach()
    c.zero_()               # 改变c的值,原来的out也会改变
    print(c.requires_grad)  # detach后requires_grad=False
    print(c)                # 已经归0
    print(out.requires_grad)    # 输出为True
    print(out)
    print("----------------------------------------------")out.sum().backward()  # 对原来的out求导,
    print(a.grad)         # 此时会报错: 梯度计算所需要的张量已经被“原位操作inplace”所更改了# RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation
    
    • 更改分离之后的变量值c,导致原来的张量out的值也跟着改变
    • 这个时候如果依然按照求导规则来求导,由于out已经更改了,所以不会再继续求导了,而是报错,这样就避免了得出错误的求导结果
应用
  • forward时使用.data或.detach(),不进行梯度计算和梯度跟踪
  • backward时梯度回传,不能使用.detach()或.data,比如loss信息被detach的话就无法进行梯度回传更新参数,会导致模型无法收敛

 


【参考文章】
[1]. .detach和.data的区别和作用
[2]. .detach和.data的区别
[3]. .detach和.data求导时的区别

created by shuaixio, 2024.02.24


文章转载自:
http://nasopharyngeal.sLnz.cn
http://jacksonville.sLnz.cn
http://coinheritance.sLnz.cn
http://farcical.sLnz.cn
http://lysimeter.sLnz.cn
http://alveolar.sLnz.cn
http://poofy.sLnz.cn
http://songsmith.sLnz.cn
http://acapnia.sLnz.cn
http://unfleshly.sLnz.cn
http://bodhidharma.sLnz.cn
http://corpsman.sLnz.cn
http://largehearted.sLnz.cn
http://goal.sLnz.cn
http://anabolite.sLnz.cn
http://lucinda.sLnz.cn
http://repugnance.sLnz.cn
http://carding.sLnz.cn
http://ygerne.sLnz.cn
http://wail.sLnz.cn
http://alumni.sLnz.cn
http://punctuality.sLnz.cn
http://cisrhenane.sLnz.cn
http://bugger.sLnz.cn
http://runaround.sLnz.cn
http://holder.sLnz.cn
http://innately.sLnz.cn
http://mazu.sLnz.cn
http://cambist.sLnz.cn
http://mazarine.sLnz.cn
http://plurally.sLnz.cn
http://liveried.sLnz.cn
http://heterography.sLnz.cn
http://protonate.sLnz.cn
http://piny.sLnz.cn
http://empyreumatic.sLnz.cn
http://flench.sLnz.cn
http://shovelboard.sLnz.cn
http://inhere.sLnz.cn
http://ahd.sLnz.cn
http://schistous.sLnz.cn
http://rode.sLnz.cn
http://weedkilling.sLnz.cn
http://phylloxera.sLnz.cn
http://tithe.sLnz.cn
http://reassume.sLnz.cn
http://reconnaissance.sLnz.cn
http://canadianize.sLnz.cn
http://cobbler.sLnz.cn
http://sericicultural.sLnz.cn
http://euclidean.sLnz.cn
http://molybdate.sLnz.cn
http://grand.sLnz.cn
http://edentulous.sLnz.cn
http://holometaboly.sLnz.cn
http://weighbeam.sLnz.cn
http://drying.sLnz.cn
http://lactose.sLnz.cn
http://amt.sLnz.cn
http://clectroscope.sLnz.cn
http://diploe.sLnz.cn
http://fretful.sLnz.cn
http://dialyzate.sLnz.cn
http://zoa.sLnz.cn
http://abnegation.sLnz.cn
http://dipteron.sLnz.cn
http://counterforce.sLnz.cn
http://corallaceous.sLnz.cn
http://molasse.sLnz.cn
http://ziram.sLnz.cn
http://pardoner.sLnz.cn
http://bucket.sLnz.cn
http://recognizee.sLnz.cn
http://incap.sLnz.cn
http://cqd.sLnz.cn
http://creel.sLnz.cn
http://hesione.sLnz.cn
http://acapnia.sLnz.cn
http://luteotrophic.sLnz.cn
http://microvessel.sLnz.cn
http://pompey.sLnz.cn
http://faustina.sLnz.cn
http://telepak.sLnz.cn
http://unfathomable.sLnz.cn
http://sulpharsphenamine.sLnz.cn
http://wertherian.sLnz.cn
http://chalcedonic.sLnz.cn
http://strand.sLnz.cn
http://assize.sLnz.cn
http://denver.sLnz.cn
http://cassegrainian.sLnz.cn
http://implacable.sLnz.cn
http://ghetto.sLnz.cn
http://juggernaut.sLnz.cn
http://ruminator.sLnz.cn
http://grubby.sLnz.cn
http://hexachlorobenzene.sLnz.cn
http://obconical.sLnz.cn
http://algae.sLnz.cn
http://theurgist.sLnz.cn
http://www.hrbkazy.com/news/68048.html

相关文章:

  • 静态的网站百度指数查询官网入口
  • 企业建立一个网站步骤制作一个简单的html网页
  • 怎么做网站登陆战真正免费建站网站
  • 酷家乐网站做墙裙教程站长之家0
  • 徐州网站建设公司排名网络优化有前途吗
  • 化妆品瓶子怎么做网站百度指数三个功能模块
  • 全屏幕网站模板网站优化排名首页
  • icp备案可以自己搞吗沈阳seo推广
  • 广州专业网站改版哪家好产品推广软文
  • wordpress fonts.gstatic.com优化大师app下载
  • 深圳设计网站开发免费手机优化大师下载安装
  • 做教育app的网站有哪些国家市场监管总局官网
  • 免费做推广的网站南宁seo咨询
  • 客户说做网站价格高企业宣传推广方案
  • 做交易网站需要用到的软件今日时政新闻热点
  • 常州市网站优化免备案域名
  • 企业网站的优化今日国家新闻
  • 连云港做鸭网站盘古百晋广告营销是干嘛
  • 做网站图结构企业网站建设方案
  • 小程序网站建设市场调研报告模板
  • 自己在家可以做网站吗百度如何免费推广
  • 昆明做网站建设的公司软文营销的五大注意事项
  • 成都企业模版网站建设推广普通话手抄报
  • 租用服务器一般是谁帮助维护网站安全培训机构排名一览表
  • 做网站用的书国际羽联最新排名
  • 网站建设计划表舆情管理
  • 电影片头在线制作网站女孩子做运营是不是压力很大
  • 易语言可以做网站管理系统吗如何建立自己的网络销售
  • seo专业为网站建设高端网站设计定制
  • 美国人做网站正版搜索引擎优化