当前位置: 首页 > news >正文

wordpress 网址优化上海网站营销seo方案

wordpress 网址优化,上海网站营销seo方案,怒江北京网站建设,网站制作工具近日, LlaMA(羊驼) 这个大模型再次冲上热搜! LLaMA(Large Language Model Meta AI),由 Meta AI 发布的一个开放且高效的大型基础语言模型,共有 7B、13B、33B、65B(650 亿)四种版本。…

近日, LlaMA(羊驼) 这个大模型再次冲上热搜!

LLaMA(Large Language Model Meta AI),由 Meta AI 发布的一个开放且高效的大型基础语言模型,共有 7B、13B、33B、65B(650 亿)四种版本。其数据集来源都是公开数据集,无任何定制数据集,保证了其工作与开源兼容和可复现,整个训练数据集在 token 化之后大约包含 1.4T 的 token。关于模型性能,LLaMA 的性能非常优异:具有 130 亿参数的 LLaMA 模型「在大多数基准上」可以胜过 GPT-3( 参数量达 1750 亿),而且可以在单块 V100 GPU 上运行;而最大的 650 亿参数的 LLaMA 模型可以媲美谷歌的 Chinchilla-70B 和 PaLM-540B。

与之前所介绍的Transformer架构不同的地方包括采用了前置层归一化(Pre-normalization)并使用RMSNorm 归一化函数(Normalizing Function)、激活函数更换为SwiGLU,并使用了旋转位置嵌入(RoP),整体Transformer架构与GPT-2 类似,如图1.1所示。

图1.1 GPT-2 模型结构

关于训练集,其来源都是公开数据集,无任何定制数据集,保证了其工作与开源兼容和可复现。整个训练数据集在 token 化之后大约包含 1.4T 的 token。其中,LLaMA-65B 和 LLaMA-33B 是在 1.4万亿个 token 上训练的,而最小的模型 LLaMA-7B 是在 1万亿个 token 上训练的。LLaMA 优势在于其只使用公开可用的数据,这可以保证论文的工作与开源兼容和可复现。之前的大模型要么使用了不公开的数据集去训练从而达到了 state-of-the-art,如 Chinchilla、PaLM 或 GPT-3;要么使用了公开数据集,但模型效果不是最佳无法和 PaLM-62B 或 Chinchilla 相竞争,如 OPT、GPT-NeoX、BLOOM 和 GLM。

和 GPT 系列一样,LLaMA 模型也是 Decoder-only 架构,但结合前人的工作做了一些改进,比如:

  • Pre-normalization [GPT3]. 为了提高训练稳定性,LLaMA 对每个 transformer 子层的输入进行归一化,使用 RMSNorm 归一化函数,Pre-normalization 由Zhang和Sennrich(2019)引入。
  • SwiGLU 激活函数 [PaLM]. 将 ReLU 非线性替换为 SwiGLU 激活函数,且使用2/3*4D而不是 PaLM 论文中的 4d,SwiGLU 由 Shazeer(2020)引入以提高性能。
  • Rotary Embeddings [GPTNeo]. 模型的输入不再使用 positional embeddings,而是在网络的每一层添加了 positional embeddings (RoPE),RoPE 方法由Su等人(2021)引入。

不同模型的超参数详细信息在表2中给出,具体可以去看看我上篇文章,

具体怎么在华为云的ModelArts上玩转LLAMA开源大模型呢?

前期准备:

1.登录华为云官方账号:

点击右上角“控制台”,搜索栏输入“ModelArts”

点击“AI Gallery“,选择“北京四”区域,

点击"资产集市–Notebook",输入“Mindformers应用之LLaMA_7B推理应用

点击“Run in ModelArts”,进入,

1. 安装MindFormers开发套件

%cd /home/ma-user/work
!git clone -b r0.6 https://gitee.com/mindspore/mindformers.git
Cloning into 'mindformers'...remote: Enumerating objects: 21732, done.remote: Counting objects: 100% (437/437), done.remote: Compressing objects: 100% (330/330), done.remote: Total 21732 (delta 262), reused 190 (delta 107), pack-reused 21295Receiving objects: 100% (21732/21732), 37.74 MiB | 3.73 MiB/s, done.

编译代码

%cd mindformers!bash build.sh%cd ../home/ma-user/work/mindformers---------------- MindFormers: build start ----------------running bdist_wheelrunning buildrunning build_pycreating build/lib/mindformerscopying mindformers/__init__.py -> build/lib/mindformerscopying mindformers/auto_class.py -> build/lib/mindformerscopying mindformers/mindformer_book.py -> build/lib/mindformerscreating build/lib/mindformers/corecopying mindformers/core/__init__.py -> build/lib/mindformers/corecopying mindformers/core/clip_grad.py -> build/lib/mindformers/corecopying mindformers/core/parallel_config.py -> build/lib/mindformers/corecreating build/lib/mindformers/dataset........

2.下载LLaMA模型和tokenizer

%cd /home/ma-user/work/mindformersimport moxing as moxmox.file.copy_parallel('obs://modelarts-labs-bj4-v2/case_zoo/Mindfomer_LLaMA/', 'checkpoint_download/llama')

3.推理-使用pipeline接口开启快速推理

from mindformers.pipeline import pipelinepipeline_task = pipeline("text_generation", model='llama_7b', max_length=20)pipeline_result = pipeline_task("I love Beijing, because", top_k=3)print(pipeline_result)

- 当我输入提示词:

text_generation_text': I love Beijing, because

通过LLaMA_7B模型推理可以快速输出:

['I love Beijing, because it is a city that is constantly changing.\nI love the city']

赶紧来点击试一试,体验下自己写代码调用LLAMA_7B开源大模型的魅力吧!!

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

http://www.hrbkazy.com/news/6705.html

相关文章:

  • 兰溪市建设局官方网站临沂seo代理商
  • 培训课程ui设计手机系统优化
  • 做网站时给图片添加链接新闻早知道
  • dede怎么做网站日记天津seo建站
  • web网站开发主流框架企业新网站seo推广
  • 河南网站建设哪里有企业查询官网入口
  • 技术支持网站百度热搜关键词排名优化
  • 寻找做网站英雄联盟更新公告最新
  • 做网站一年了 做个小总结百度地图3d实景地图
  • 创办一家公司需要多少钱网站推广优化怎样
  • 微信扫一扫登录网站如何做关于友情链接说法正确的是
  • 网站更新了文章看不到宁波seo企业推广
  • 用php做的网站必备那些文件百度集团股份有限公司
  • 男女做暧视频网站免费站长工具seo综合查询怎么关闭
  • 丰都网站建设案例网建
  • 搭建网站服务器教程地推项目平台
  • 郑州网站建设选微锐x外贸推广网站
  • 东莞黄江做网站公司新发布的新闻
  • 河北邢台做网站培训班学员培训心得
  • 株洲做网站哪家好怎么制作网页设计
  • 国内 上市网站建设公司长尾关键词有哪些
  • 单县网站建设域名注册官网免费
  • 做的网站怎么上传图片长尾关键词挖掘工具
  • 哪个网站可以做结婚证品牌营销策划机构
  • 微网站如何做微信支付宝支付接口百度关键词搜索引擎排名优化
  • 建站公司的服务内容百度搜索大数据查询
  • 网站建设与管理办法个人网页设计作品欣赏
  • 做国际交友网站翻译重庆seo什么意思
  • 新手容易上手的cms做企业网站网址推荐
  • 校园云网站建设英文seo外链