当前位置: 首页 > news >正文

wordpress减少请求次数seo刷关键词排名优化

wordpress减少请求次数,seo刷关键词排名优化,企业信息系统包括,进销存永久免费文章目录 准备连接hive的配置申请kerberos tgt在scala项目启动本地spark本地Jupyter Notebook启动pyspark 解决在wsl下进行开发、调试时,需要连接kerberos鉴权的hdfs、hive的问题 准备连接hive的配置 core-site.xml、hdfs-site.xml、yarn-site.xml、hive-site.xml复…

文章目录

  • 准备连接hive的配置
  • 申请kerberos tgt
  • 在scala项目启动本地spark
  • 本地Jupyter Notebook启动pyspark

解决在wsl下进行开发、调试时,需要连接kerberos鉴权的hdfs、hive的问题

准备连接hive的配置

core-site.xml、hdfs-site.xml、yarn-site.xml、hive-site.xml复制到本地;
不知道为什么yarn-site.xml里的配置也必须存在,即使不使用yarn运行spark

申请kerberos tgt

在/etc/krb5.conf记录账户域名对应的授权服务地址,注意配置default_ccache_name(Ticket Granting Ticket存放路径)的格式,让java程序能够自动读取到tgt

[libdefaults]dns_lookup_realm = falseticket_lifetime = 24hrenew_lifetime = 7dforwardable = truerdns = falsepkinit_anchors = FILE:/etc/pki/tls/certs/ca-bundle.crtspake_preauth_groups = edwards25519default_realm = COMPANY.UAT.COM# default_ccache_name = KEYRING:persistent:%{uid}default_ccache_name = FILE:/tmp/krb5cc_%{uid}
[realms]
COMPANY.UAT.COM = {kdc = 10.0.0.1admin_server = 10.0.0.1
}

申请当前操作系统用户的进程都可使用的tgt(Ticket Granting Ticket)

# 24小时过期,每天要执行一次
kinit -kt /etc/kerberos/hive.keytab hive@COMPANY.UAT.COM

使用klist命令可以看到已申请的tgt存储在/tmp/krb5cc_%{uid}文件里;
java默认会访问/etc/krb5.conf记录的授权服务地址,使用/tmp/krb5cc_%{uid}文件里的tgt信息,申请访问具体服务的ticket

在scala项目启动本地spark

连接配置文件全放到项目的src/test/resources后,可执行单元测试

import org.scalatest.funsuite.AnyFunSuite
import org.apache.spark.sql.SparkSessionclass SparkTest extends AnyFunSuite with BeforeAndAfterAll {val catalogImpl: String = "hive"lazy val spark: SparkSession = SparkSession.builder().appName("scala test").master("local[1]").enableHiveSupport()// 如果不使用kinit命令预先申请tgt,也可让spark自行申请// .config("spark.kerberos.keytab", "/etc/kerberos/hive.keytab")// .config("spark.kerberos.principal", "hive@COMPANY.UAT.COM")    .getOrCreate()test("select hive") {val df = spark.sql("select * from default.temp_test1 limit 10")df.printSchema()df.show()}test("sleep") {// 挂起测试线程,可在localhost:4040访问spark控制台,确认是否加载了hdfs、spark相关配置Thread.sleep(1000000)}
}

本地Jupyter Notebook启动pyspark

vscode的Jupyter插件自动为一个打开的.ipynb文件在本地启动一个对应的ipykernel_launcher,并支持为每个.ipynb文件指定python venv;
修改spark启动配置后,需要点击重启ipykernel的按钮,再重新运行启动spark的代码单元格。

在指定的python venv下,安装pyspark:

pip3 install pyspark==3.2.4

连接配置文件全放到本地/apps/conf/SPARK目录内

from pyspark.sql import SparkSession
import os
# spark-submit能够读取环境变量SPARK_CONF_DIR指定的配置目录
os.environ["SPARK_CONF_DIR"] = "/apps/conf/SPARK"
# pyspark调用spark-submit,启动driver
# 查看driver的java进程: ps -ef | grep pyspark-shell
spark = (SparkSession.builder.appName("pyspark test").master("local[1]").enableHiveSupport()# 下载hive相关依赖包.config("spark.sql.hive.metastore.version", "3.1.3").config("spark.sql.hive.metastore.jars", "maven").config("spark.jars.repositories", "https://maven.aliyun.com/repository/public").getOrCreate()
)

在后续notebook代码单元格里随意编辑、执行spark代码

df1 = spark.sql("SHOW TABLES IN default")
df1.show()
http://www.hrbkazy.com/news/35821.html

相关文章:

  • 如何给网站做dns解析域名停靠网页推广大全2023
  • 门户网站建设评估朝阳区seo技术
  • 整形医院网站源码下载重庆seo优化公司
  • phpcms仿站教程seo有哪些网站
  • 自助建站系统百度热门关键词排名
  • 政府网站建设工作的自查报告商城推广
  • 南昌做企业网站百度快速排名培训
  • 网站建设的原则北京搜索引擎优化主管
  • 遵义市乡村街道建设投诉网站深圳今天重大事件新闻
  • 美丽寮步网站建设宁波网站快速优化
  • 做教育app的网站有哪些内容网络营销渠道可分为
  • 专业做企业网站无锡百度推广代理商
  • 做站群网站好优化吗站点推广是什么意思
  • 章丘建设局网站seo入门培训
  • 网站是怎么做新手引导优化网站推广网站
  • 不懂代码可以做网站吗app推广在哪里可以接单
  • 哈尔滨网站优化咨询公司网络优化方案
  • 织梦php网站友情链接交易平台
  • 网站互联网设计图风格seo快速排名上首页
  • 网上做博彩网站代理三十个知识点带你学党章
  • 个人网站 建设2021年经典营销案例
  • 河北 建设厅网站首页优化关键词方法
  • 前程无忧做一年网站多钱浙江网站建设平台
  • 南京教育网站开发cps推广
  • 二合一收款码免费制作网站百度官网首页入口
  • 家政行业网站建设方案seo搜索引擎优化内容
  • 国外的服务器建设的网站在线网页制作网站
  • 网投网站制作推广搜索怎么选关键词
  • flash个人网站动画网络营销教学大纲
  • 太原网页制作招聘网运营seo是什么意思