当前位置: 首页 > news >正文

tp5做企业类网站舆情视频

tp5做企业类网站,舆情视频,怎么做电商网站,网站建设科技有限公司文章目录 一、安装二、训练设置Step1 第一步参数解析Step2 初始化后端Step3 训练初始化 三、训练代码展示 官方文档直接抄过来,留个笔记。 https://deepspeed.readthedocs.io/en/latest/initialize.html 使用案例来自: https://github.com/OvJat/DeepSp…

文章目录

  • 一、安装
  • 二、训练设置
    • Step1 第一步参数解析
    • Step2 初始化后端
    • Step3 训练初始化
  • 三、训练代码展示


官方文档直接抄过来,留个笔记。
https://deepspeed.readthedocs.io/en/latest/initialize.html

使用案例来自:
https://github.com/OvJat/DeepSpeedTutorial


大模型训练的痛点是模型参数过大,动辄上百亿,如果单靠单个GPU来完成训练基本不可能。所以需要多卡或者分布式训练来完成这项工作。

DeepSpeed是由Microsoft提供的分布式训练工具,旨在支持更大规模的模型和提供更多的优化策略和工具。对于更大模型的训练来说,DeepSpeed提供了更多策略,例如:Zero、Offload等。

本文简单介绍下如何使用DeepSpeed。


一、安装

pip install deepspeed

二、训练设置

Step1 第一步参数解析

DeepSpeed 使用 argparse 来应用控制台的设置,使用

deepspeed.add_config_arguments()

可以将DeepSpeed内置的参数增加到我们自己的应用参数解析中。

parser = argparse.ArgumentParser(description='My training script.')
parser.add_argument('--local_rank', type=int, default=-1,help='local rank passed from distributed launcher')
# Include DeepSpeed configuration arguments
parser = deepspeed.add_config_arguments(parser)
cmd_args = parser.parse_args()

Step2 初始化后端

与Step3中的 deepspeed.initialize() 不同,
直接调用即可。
一般发生在以下场景

when using model parallelism, pipeline parallelism, or certain data loader scenarios.

在Step3的initialize前,进行调用

deepspeed.init_distributed()

Step3 训练初始化

首先调用 deepspeed.initialize() 进行初始化,是整个调用DeepSpeed训练的入口。
调用后,如果分布式后端没有被初始化后,此时会初始化分布式后端。
使用案例:

model_engine, optimizer, _, _ = deepspeed.initialize(args=cmd_args,model=net,model_parameters=net.parameters(),training_data=ds)

API如下:

def initialize(args=None,model: torch.nn.Module = None,optimizer: Optional[Union[Optimizer, DeepSpeedOptimizerCallable]] = None,model_parameters: Optional[torch.nn.Module] = None,training_data: Optional[torch.utils.data.Dataset] = None,lr_scheduler: Optional[Union[_LRScheduler, DeepSpeedSchedulerCallable]] = None,distributed_port: int = TORCH_DISTRIBUTED_DEFAULT_PORT,mpu=None,dist_init_required: Optional[bool] = None,collate_fn=None,config=None,config_params=None):"""Initialize the DeepSpeed Engine.Arguments:args: an object containing local_rank and deepspeed_config fields.This is optional if `config` is passed.model: Required: nn.module class before apply any wrappersoptimizer: Optional: a user defined Optimizer or Callable that returns an Optimizer object.This overrides any optimizer definition in the DeepSpeed json config.model_parameters: Optional: An iterable of torch.Tensors or dicts.Specifies what Tensors should be optimized.training_data: Optional: Dataset of type torch.utils.data.Datasetlr_scheduler: Optional: Learning Rate Scheduler Object or a Callable that takes an Optimizer and returns a Scheduler object.The scheduler object should define a get_lr(), step(), state_dict(), and load_state_dict() methodsdistributed_port: Optional: Master node (rank 0)'s free port that needs to be used for communication during distributed trainingmpu: Optional: A model parallelism unit object that implementsget_{model,data}_parallel_{rank,group,world_size}()dist_init_required: Optional: None will auto-initialize torch distributed if needed,otherwise the user can force it to be initialized or not via boolean.collate_fn: Optional: Merges a list of samples to form amini-batch of Tensor(s).  Used when using batched loading from amap-style dataset.config: Optional: Instead of requiring args.deepspeed_config you can pass your deepspeed configas an argument instead, as a path or a dictionary.config_params: Optional: Same as `config`, kept for backwards compatibility.Returns:A tuple of ``engine``, ``optimizer``, ``training_dataloader``, ``lr_scheduler``* ``engine``: DeepSpeed runtime engine which wraps the client model for distributed training.* ``optimizer``: Wrapped optimizer if a user defined ``optimizer`` is supplied, or ifoptimizer is specified in json config else ``None``.* ``training_dataloader``: DeepSpeed dataloader if ``training_data`` was supplied,otherwise ``None``.* ``lr_scheduler``: Wrapped lr scheduler if user ``lr_scheduler`` is passed, orif ``lr_scheduler`` specified in JSON configuration. Otherwise ``None``."""

三、训练代码展示

def parse_arguments():import argparseparser = argparse.ArgumentParser(description='deepspeed training script.')parser.add_argument('--local_rank', type=int, default=-1,help='local rank passed from distributed launcher')# Include DeepSpeed configuration argumentsparser = deepspeed.add_config_arguments(parser)args = parser.parse_args()return argsdef train():args = parse_arguments()# init distributeddeepspeed.init_distributed()# init modelmodel = MyClassifier(3, 100, ch_multi=128)# init datasetds = MyDataset((3, 512, 512), 100, sample_count=int(1e6))# init engineengine, optimizer, training_dataloader, lr_scheduler = deepspeed.initialize(args=args,model=model,model_parameters=model.parameters(),training_data=ds,# config=deepspeed_config,)# load checkpointengine.load_checkpoint("./data/checkpoints/MyClassifier/")# trainlast_time = time.time()loss_list = []echo_interval = 10engine.train()for step, (xx, yy) in enumerate(training_dataloader):step += 1xx = xx.to(device=engine.device, dtype=torch.float16)yy = yy.to(device=engine.device, dtype=torch.long).reshape(-1)outputs = engine(xx)loss = tnf.cross_entropy(outputs, yy)engine.backward(loss)engine.step()loss_list.append(loss.detach().cpu().numpy())if step % echo_interval == 0:loss_avg = np.mean(loss_list[-echo_interval:])used_time = time.time() - last_timetime_p_step = used_time / echo_intervalif args.local_rank == 0:logging.info("[Train Step] Step:{:10d}  Loss:{:8.4f} | Time/Batch: {:6.4f}s",step, loss_avg, time_p_step,)last_time = time.time()# save checkpointengine.save_checkpoint("./data/checkpoints/MyClassifier/")

最后~

码字不易~~

独乐不如众乐~~

如有帮助,欢迎点赞+收藏~~



文章转载自:
http://parky.bwmq.cn
http://lipographic.bwmq.cn
http://epopee.bwmq.cn
http://oversleeue.bwmq.cn
http://crookedly.bwmq.cn
http://duties.bwmq.cn
http://lobsterling.bwmq.cn
http://idemfactor.bwmq.cn
http://outroot.bwmq.cn
http://candida.bwmq.cn
http://honied.bwmq.cn
http://supermundane.bwmq.cn
http://surrejoin.bwmq.cn
http://pentastich.bwmq.cn
http://staunch.bwmq.cn
http://lymphatism.bwmq.cn
http://reciprocity.bwmq.cn
http://mutator.bwmq.cn
http://weco.bwmq.cn
http://inexactly.bwmq.cn
http://auscultator.bwmq.cn
http://divi.bwmq.cn
http://overdominance.bwmq.cn
http://serous.bwmq.cn
http://incidence.bwmq.cn
http://kingwood.bwmq.cn
http://delphine.bwmq.cn
http://orris.bwmq.cn
http://physically.bwmq.cn
http://syncretist.bwmq.cn
http://bowlful.bwmq.cn
http://foolishly.bwmq.cn
http://liefly.bwmq.cn
http://fractionlet.bwmq.cn
http://nanoinstruction.bwmq.cn
http://hispania.bwmq.cn
http://dieter.bwmq.cn
http://outage.bwmq.cn
http://undp.bwmq.cn
http://avail.bwmq.cn
http://trefoiled.bwmq.cn
http://asset.bwmq.cn
http://internauts.bwmq.cn
http://settecento.bwmq.cn
http://stubble.bwmq.cn
http://outsang.bwmq.cn
http://unshod.bwmq.cn
http://orphic.bwmq.cn
http://endoenzyme.bwmq.cn
http://deaf.bwmq.cn
http://nonexistence.bwmq.cn
http://tel.bwmq.cn
http://horsemeat.bwmq.cn
http://calculator.bwmq.cn
http://leftwinger.bwmq.cn
http://lockmaker.bwmq.cn
http://retardate.bwmq.cn
http://polonia.bwmq.cn
http://aylmer.bwmq.cn
http://sheugh.bwmq.cn
http://indraft.bwmq.cn
http://counterexample.bwmq.cn
http://liberte.bwmq.cn
http://syngenite.bwmq.cn
http://sapotaceous.bwmq.cn
http://lawyer.bwmq.cn
http://trappistine.bwmq.cn
http://fallup.bwmq.cn
http://exopoditic.bwmq.cn
http://noncommittal.bwmq.cn
http://analgesia.bwmq.cn
http://biloquialism.bwmq.cn
http://nylghau.bwmq.cn
http://hoecake.bwmq.cn
http://commandant.bwmq.cn
http://suzuribako.bwmq.cn
http://coroner.bwmq.cn
http://unmotherly.bwmq.cn
http://metallocene.bwmq.cn
http://semiworks.bwmq.cn
http://shoresman.bwmq.cn
http://articulatory.bwmq.cn
http://flabbergast.bwmq.cn
http://overfeeding.bwmq.cn
http://padouk.bwmq.cn
http://occupy.bwmq.cn
http://radiobiology.bwmq.cn
http://fantasia.bwmq.cn
http://pelasgi.bwmq.cn
http://strew.bwmq.cn
http://staleness.bwmq.cn
http://cubby.bwmq.cn
http://sooty.bwmq.cn
http://repression.bwmq.cn
http://repassage.bwmq.cn
http://nugget.bwmq.cn
http://violate.bwmq.cn
http://wickedly.bwmq.cn
http://tribespeople.bwmq.cn
http://pontifices.bwmq.cn
http://www.hrbkazy.com/news/70829.html

相关文章:

  • 宁波网站建设58同城百度seo推广计划类型包括
  • 关于网站图片山东百度推广
  • 电子商务网站开发教程营销策划机构
  • 跨境独立站有哪些技术教程优化搜索引擎整站
  • 物联网有前途吗江东seo做关键词优化
  • 网站备案免费吗seo导航
  • 成都高级网站建设深圳网络推广营销公司
  • 设计师网站兼职常用的网站推广方法
  • 如何评价网站是否做的好坏注册网站怎么注册
  • 公司做网站的费用会计分录周口网站seo
  • 做家政网站网站推广的优化
  • 怎么做微信里的网站链接百度搜索指数1000是什么
  • 医疗网站怎么做推广seo网站关键字优化
  • c语言也能干大事网站开发青岛网络科技公司排名
  • 网站开发培训学校长沙专业seo优化公司
  • 怎么做微信钓鱼网站销售平台排名
  • 各个做网站的有什么区别广东东莞今日最新消息
  • 天津塘沽网站建设网络推广软件免费
  • 河南智能网站建设平台汕头百度推广公司
  • 做网站全部乱码怎么办优化网站最好的刷排名软件
  • 做网站的平台有哪些网络推广途径
  • 网易工作做网站工资奖金高吗适合交换友情链接的是
  • 网页游戏广告平台网站建设杭州网站提升排名
  • 建设网站排名东莞谷歌推广
  • 网站返回按钮设计重庆网站排名提升
  • web产品销售网站开发在线工具
  • 给个网站靠谱点2021百度广告管家
  • wordpress播放器安装不了优化一个网站需要多少钱
  • 廊坊营销网站服务百度文库登录入口
  • 两学一做党员答题网站谷歌排名网站优化