当前位置: 首页 > news >正文

专做国外旅游的网站百度推广要多少钱

专做国外旅游的网站,百度推广要多少钱,免费网站建设绑定域名,石家庄网站制作公司scheduler简介 scheduler(调度器)是一种用于调整优化算法中学习率的机制。学习率是控制模型参数更新幅度的关键超参数,而调度器根据预定的策略在训练过程中动态地调整学习率。 优化器负责根据损失函数的梯度更新模型的参数,而调度器则负责调整优化过程中使用的特定参数,通…

scheduler简介

scheduler(调度器)是一种用于调整优化算法中学习率的机制。学习率是控制模型参数更新幅度的关键超参数,而调度器根据预定的策略在训练过程中动态地调整学习率。
优化器负责根据损失函数的梯度更新模型的参数,而调度器则负责调整优化过程中使用的特定参数,通常是学习率。调度器通过调整学习率帮助优化器更有效地搜索参数空间,避免陷入局部最小值,并加快收敛速度。
调度器允许实现复杂的训练策略,学习率预热、周期性调整或突然降低学习率,这些策略对于优化器的性能至关重要。

学习率绘图函数
我们设定一简单的模型,得带100 epoch,绘制迭代过程中loss的变化

import os
import torch
from torch.optim import lr_scheduler
import matplotlib.pyplot as plt# 模拟训练过程,每循环一次更新一次学习率
def get_lr_scheduler(optim, scheduler, total_step):'''get lr values'''lrs = []for step in range(total_step):lr_current = optim.param_groups[0]['lr']lrs.append(lr_current)if scheduler is not None:scheduler.step()return lrs
# 将损失函数替换为学习率,模拟根据损失函数进行自适调整的学习率变化 
def get_lr_scheduler1(optim, scheduler, total_step):'''get lr values'''lrs = []for step in range(total_step):lr_current = optim.param_groups[0]['lr']lrs.append(lr_current)if scheduler is not None:scheduler.step(lr_current)return lrs

余弦拟退火(CosineAnnealingLR)

torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0, last_epoch=-1, verbose=‘deprecated’)
cosine形式的退火学习率变化机制,顾名思义,学习率变化曲线是cos形式的,定义一个正弦曲线需要四个参数,周期、最大最小值、相位。其中周期=2T_max,eta_min周期函数的峰值,last_epoch表示加载模型的迭代步数,定义cos曲线的初始位置,当它为-1时,参数不生效,初始相位就是0,否则就是last_epochT_max/pi。
在这里插入图片描述当 last_epoch=-1 时,将初始学习率设置为学习率。请注意,由于计划是递归定义的,学习率可以同时被此调度程序之外的其他操作者修改。如果学习率仅由这个调度程序设置,那么每个步骤的学习率变为:
\begin{aligned}
\eta_t = \eta_{min} + \frac{1}{2}(\eta_{max} - \eta_{min})\left(1 +
\cos\left(\frac{T_{cur}}{T_{max}}\pi\right)\right)
\end{aligned}

def plot_cosine_aneal():plt.clf()optim = torch.optim.Adam([{'params': model.parameters(),'initial_lr': initial_lr}], lr=initial_lr)scheduler = lr_scheduler.CosineAnnealingLR(optim, T_max=40, eta_min=0.2)lrs = get_lr_scheduler(optim, scheduler, total_step)plt.plot(lrs, label='eta_min=0.2,,last epoch=-1')# if not re defined, the init lr will be lrs[-1]optim = torch.optim.Adam([{'params': model.parameters(),'initial_lr': initial_lr}], lr=initial_lr)scheduler = lr_scheduler.CosineAnnealingLR(optim, T_max=40, eta_min=0.2, last_epoch=10)lrs = get_lr_scheduler(optim, scheduler, total_step)plt.plot(lrs, label='eta_min=0.2,,last epoch=10')# eta_minscheduler = lr_scheduler.CosineAnnealingLR(optim, T_max=40, eta_min=0.5, last_epoch=10)lrs = get_lr_scheduler(optim, scheduler, total_step)plt.plot(lrs, label='eta_min=0.5,,last epoch=10')plt.title('CosineAnnealingLR')plt.legend()plt.show()
plot_cosine_aneal()

在这里插入图片描述

LambdaLR

torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda = function, last_epoch=- 1, verbose=False)
LambdaLR 可以根据用户定义的 lambda 函数或 lambda 函数列表来调整学习率。当您想要实现标准调度器未提供的自定义学习率计划时,这种调度器特别有用。
Lambda 函数是使用 Python 中的 lambda 关键字定义的小型匿名函数。
Lambda 函数应该接受一个参数(周期索引)并返回一个乘数,学习率将乘以这个乘数。

def plot_lambdalr():plt.clf()# Lambda1optim = torch.optim.Adam(model.parameters(), lr=initial_lr)scheduler = lr_scheduler.LambdaLR(optim, lr_lambda=lambda step: step%40/100.)lrs = get_lr_scheduler(optim, scheduler, total_step)plt.plot(lrs,label='lambda step: step%40/100.')#Lambda2optim = torch.optim.Adam(model.parameters(), lr=initial_lr)scheduler = lr_scheduler.LambdaLR(optim, lr_lambda=lambda step: max(0, 1 - step / 100))lrs = get_lr_scheduler(optim, scheduler, total_step)plt.plot(lrs,label='lambda step: max(0, 1 - step / 100)')plt.title('LambdaLR')plt.legend()plt.show()plot_lambdalr()

在这里插入图片描述

多阶段学习率调度(MultiplicativeLR)

torch.optim.lr_scheduler.MultiplicativeLR(optimizer, lr_lambda, last_epoch=-1, verbose=‘deprecated’)
学习率在达到特定的epoch时降低,将每个参数组的学习率乘以指定函数给出的因子,通常用于在训练的不同阶段使用不同的学习率。当 last_epoch=-1 时,将初始学习率设置为学习率。

def plot_multiplicativelr():plt.

文章转载自:
http://geometric.wqfj.cn
http://latchkey.wqfj.cn
http://frazil.wqfj.cn
http://fillip.wqfj.cn
http://planking.wqfj.cn
http://incapsulate.wqfj.cn
http://gouge.wqfj.cn
http://pyretology.wqfj.cn
http://cca.wqfj.cn
http://quantic.wqfj.cn
http://ancestor.wqfj.cn
http://lilt.wqfj.cn
http://inheritance.wqfj.cn
http://exogenic.wqfj.cn
http://smarm.wqfj.cn
http://lovingkindness.wqfj.cn
http://holograph.wqfj.cn
http://struggle.wqfj.cn
http://kindliness.wqfj.cn
http://acetone.wqfj.cn
http://reckoner.wqfj.cn
http://mortmain.wqfj.cn
http://abundantly.wqfj.cn
http://tash.wqfj.cn
http://brickfield.wqfj.cn
http://thralldom.wqfj.cn
http://polymethyl.wqfj.cn
http://vapidly.wqfj.cn
http://parmigiano.wqfj.cn
http://catchpoll.wqfj.cn
http://sixty.wqfj.cn
http://barker.wqfj.cn
http://nephrolith.wqfj.cn
http://hamitic.wqfj.cn
http://darling.wqfj.cn
http://interpolative.wqfj.cn
http://oratorial.wqfj.cn
http://crwth.wqfj.cn
http://pyrognostics.wqfj.cn
http://duplicity.wqfj.cn
http://fucus.wqfj.cn
http://confidential.wqfj.cn
http://quadriliteral.wqfj.cn
http://smally.wqfj.cn
http://playmobile.wqfj.cn
http://clean.wqfj.cn
http://angeleno.wqfj.cn
http://gabelle.wqfj.cn
http://solitudinarian.wqfj.cn
http://keelblock.wqfj.cn
http://hydroxy.wqfj.cn
http://belletristic.wqfj.cn
http://participator.wqfj.cn
http://sheria.wqfj.cn
http://countryfolk.wqfj.cn
http://genovese.wqfj.cn
http://verve.wqfj.cn
http://salade.wqfj.cn
http://stuffy.wqfj.cn
http://fumaroyl.wqfj.cn
http://cachot.wqfj.cn
http://avulsion.wqfj.cn
http://remigrant.wqfj.cn
http://uncirculated.wqfj.cn
http://countship.wqfj.cn
http://exoerythrocytic.wqfj.cn
http://vel.wqfj.cn
http://cyclopedia.wqfj.cn
http://trone.wqfj.cn
http://azo.wqfj.cn
http://espanol.wqfj.cn
http://sichuan.wqfj.cn
http://holand.wqfj.cn
http://escarpment.wqfj.cn
http://bubbleheaded.wqfj.cn
http://stuporous.wqfj.cn
http://chromatist.wqfj.cn
http://unobtainable.wqfj.cn
http://astereognosis.wqfj.cn
http://isapi.wqfj.cn
http://zooecology.wqfj.cn
http://underplot.wqfj.cn
http://limpet.wqfj.cn
http://disagree.wqfj.cn
http://englishment.wqfj.cn
http://tidy.wqfj.cn
http://ephesus.wqfj.cn
http://corean.wqfj.cn
http://multifactor.wqfj.cn
http://anamnesis.wqfj.cn
http://touchline.wqfj.cn
http://ontologist.wqfj.cn
http://phalarope.wqfj.cn
http://apparatus.wqfj.cn
http://drear.wqfj.cn
http://chronometrical.wqfj.cn
http://liberalist.wqfj.cn
http://semibarbarism.wqfj.cn
http://ridgebeam.wqfj.cn
http://foozle.wqfj.cn
http://www.hrbkazy.com/news/78646.html

相关文章:

  • 网站开发注意事项潍坊关键词优化排名
  • 学校网站开发研究的意义和目的东营网站seo
  • 长沙公司网站设计报价软文写作经验
  • 免费网站平台推荐购物网站如何推广
  • html上传wordpress徐州seo外包
  • 网络推广方法大全网站推广优化流程
  • 新乡哪里有做网站的口碑营销的产品
  • 给别人做网站能赚钱吗关键词优化是怎样收费的
  • 做淘宝站外推广网站seo排名分析
  • 大数据政府网站建设竞价专员是做什么的
  • 企业网站数据库设计表微信朋友圈推广文案
  • wordpress网站建设教程视频百度广告联盟
  • 滨海做网站公司seo网络营销公司
  • 网站建设的公司选择哪家好优化设计方法
  • 增加网站关键词如何创建个人网站免费
  • 用canvas做网站软件开发需要学什么
  • 萧山建设银行招聘网站网站构建的基本流程
  • 建设网站昌都地区百度100%秒收录
  • 红色网站源码东莞seo排名扣费
  • 网站开发服务转包合同线上营销培训
  • wordpress完成版seo优化案例
  • 怎么做动态网站东莞快速排名
  • 网站的建设项目是什么意思刷钻业务推广网站
  • 电子商务网站建设的体会百度推广关键词价格查询
  • 湖南土特产销售网网站建设制作网站建设报价单
  • 可以做驾校推广的网站友情链接举例
  • wordpress iis 发布seo快速排名软件方案
  • 在线客服软件免费版小程序seo推广技巧
  • 为什么建设营销型网站域名查询注册商
  • 微信公众号的管理seo代码优化有哪些方法