当前位置: 首页 > news >正文

找做牙工作上哪个网站网站下载

找做牙工作上哪个网站,网站下载,万维网的网站,福州网站建设找嘉艺网络文章目录 官方下载地址上传安装包解压安装包到指定目录修改解压包名为kafka修改config目录下的配置文件server.propertie配置环境变量其他机器同上 - 修改配置文件中的brokerid启动集群停止Kraft 方式部署集群----(不使用zookeeper) 官方下载地址 http://kafka.apache.org/dow…

文章目录

  • 官方下载地址
  • 上传安装包
  • 解压安装包到指定目录
  • 修改解压包名为kafka
  • 修改config目录下的配置文件server.propertie
  • 配置环境变量
  • 其他机器同上 - 修改配置文件中的brokerid
  • 启动集群
  • 停止
  • Kraft 方式部署集群----(不使用zookeeper)

在这里插入图片描述


官方下载地址

http://kafka.apache.org/downloads.html
在这里插入图片描述


上传安装包

在这里插入图片描述

解压安装包到指定目录

[root@localhost kafka]# pwd
/root/kafka
[root@localhost kafka]# ll
total 110744
-rw-r--r--. 1 root root 113400977 Oct 25 10:25 kafka_2.12-3.6.0.tgz
[root@localhost kafka]#
[root@localhost kafka]#
[root@localhost kafka]#
[root@localhost kafka]#
[root@localhost kafka]# tar -xvzf kafka_2.12-3.6.0.tgz  -C   ./......
......
......

修改解压包名为kafka

[root@localhost kafka]# mv kafka_2.12-3.6.0 kafka

修改config目录下的配置文件server.propertie

[root@localhost kafka]# cd kafka
[root@localhost kafka]# ls
bin  config  libs  LICENSE  licenses  NOTICE  site-docs
[root@localhost kafka]# cd config/
[root@localhost config]# ls
connect-console-sink.properties    connect-file-source.properties   consumer.properties  server.properties
connect-console-source.properties  connect-log4j.properties         kraft                tools-log4j.properties
connect-distributed.properties     connect-mirror-maker.properties  log4j.properties     trogdor.conf
connect-file-sink.properties       connect-standalone.properties    producer.properties  zookeeper.properties
[root@localhost config]# ll server.properties
-rw-r--r--. 1 root root 6896 Sep 29 12:56 server.properties
[root@localhost config]# #broker的全局唯一编号,不能重复,只能是数字。
broker.id=102
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘IO的线程数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka运行日志(数据)存放的路径,路径不需要提前创建,kafka自动帮你创建,可以配置多个磁盘路径,路径与路径之间可以用","分隔
log.dirs=/opt/module/kafka/datas
#topic在当前broker上的分区个数
num.partitions=1
#用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir=1
# 每个topic创建时的副本数,默认时1个副本
offsets.topic.replication.factor=1
#segment文件保留的最长时间,超时将被删除
log.retention.hours=168
#每个segment文件的大小,默认最大1G
log.segment.bytes=1073741824
# 检查过期数据的时间,默认5分钟检查一次是否数据过期
log.retention.check.interval.ms=300000
#配置连接Zookeeper集群地址(在zk根目录下创建/kafka,方便管理)
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka

配置环境变量


[root@localhost profile.d]# cat /etc/profile.d/my_env.sh
#KAFKA_HOME
export KAFKA_HOME=/root/kafka/kafka
export PATH=$PATH:$KAFKA_HOME/bin
[root@localhost profile.d]#
[root@localhost profile.d]# source /etc/profile
[root@localhost profile.d]#
[root@localhost profile.d]#
[root@localhost profile.d]#

其他机器同上 - 修改配置文件中的brokerid

分别在hadoop103和hadoop104主机上修改配置文件server.properties中broker.id=103、broker.id=104

注:broker.id不得重复

broker.id=103
.......
.......
.......
broker.id=104
.......
.......
.......

启动集群

先启动zk

[root@localhost conf]# cd /root/kafka/
[root@localhost kafka]# cd kafka
[root@localhost kafka]# ll
total 68
drwxr-xr-x. 3 root root  4096 Sep 29 13:00 bin
drwxr-xr-x. 3 root root  4096 Oct 25 11:27 config
drwxr-xr-x. 2 root root  8192 Oct 25 10:29 libs
-rw-r--r--. 1 root root 14973 Sep 29 12:56 LICENSE
drwxr-xr-x. 2 root root  4096 Sep 29 13:00 licenses
-rw-r--r--. 1 root root 28184 Sep 29 12:56 NOTICE
drwxr-xr-x. 2 root root    44 Sep 29 13:00 site-docs
[root@localhost kafka]# cd bin/[root@localhost bin]# ./zookeeper-server-start.sh
USAGE: ./zookeeper-server-start.sh [-daemon] zookeeper.properties[root@localhost bin]# ./zookeeper-server-start.sh -daemon ../config/zookeeper.properties
[root@localhost bin]#

建议使用单独的zk

然后启动kafka

[root@localhost bin]# export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.382.b05-1.el7_9.x86_64/jre
[root@localhost bin]# ./kafka-server-start.sh -daemon ../config/server.properties
[root@localhost bin]#

停止

直接调用 kafka-server-stop.sh 即可

注意:停止Kafka集群时,一定要等Kafka所有节点进程全部停止后再停止Zookeeper集群。

因为Zookeeper集群当中记录着Kafka集群相关信息,Zookeeper集群一旦先停止,Kafka集群就没有办法再获取停止进程的信息,只能手动杀死Kafka进程了。


Kraft 方式部署集群----(不使用zookeeper)

https://huaweicloud.csdn.net/637ee7a2df016f70ae4c93b2.html

在这里插入图片描述

http://www.hrbkazy.com/news/27649.html

相关文章:

  • 上海长城建设有限公司网站比百度强大的搜索引擎
  • 政府网站集约化建设存在的问题百度自己的宣传广告
  • 福田做网站报价外包网站
  • 做投标网站条件百度门店推广
  • 杭州 做网站广州谷歌优化
  • 新手学做网站代码太原百度推广排名优化
  • 网站开发外包费用的会计分录保定seo外包服务商
  • python18前端seo是什么意思
  • 用模版做网站的好处和坏处网站广告费一般多少钱
  • 建筑建材网站设计费用快速排名网站
  • 企业推广类网站杭州seo网站哪家好
  • 办营业执照要多少钱成都网站排名 生客seo
  • 宁波网站建设招商加盟seo比较好的优化方法
  • 百度网站域名注册seo自然搜索优化排名
  • 网站访问加速器近10天的时事新闻
  • 怎么筛选一家做网站做的好的公司客服外包
  • 网站建设构建方案怎么做营销
  • 网站脚本错误新东方考研培训机构官网
  • 郑州网站建设贝斯特西安seo搜推宝
  • 湘潭哪里做网站开封网站推广公司
  • 智慧团建手机登录入口电脑版pc端广州网站seo公司
  • 东莞阳光网新闻北京百度seo价格
  • 网站世界排名怎么做whois查询 站长工具
  • 做美团网站多少钱新闻发稿发布平台
  • 小说网站的阅读界面怎么做的关键词搜索引擎
  • 深圳网站建设公司好网络推广优化seo
  • 丽江网站建设大连中小企业网络营销
  • 网站建设行业导航站点湖南seo
  • 免费网站建设咨询网页设计教程
  • 关于我们做网站深圳百度seo怎么做