当前位置: 首页 > news >正文

加强单位门户网站建设的通知百度账号登录

加强单位门户网站建设的通知,百度账号登录,手机行业动态网站制作,云南网站制作报价目录 1. 准备服务器 2. 选一台服务器配置kafka安装包 2.1 下载安装包 2.2 解压安装包 2.3 修改配置文件 3. 分发安装包到其他机器 4. 修改每台机器的broker.id 5. 配置环境变量 6. 启停kafka服务 6.1 启动kafak服务 6.2 停止kafka服务 1. 准备服务器 1.买几台云服务…

目录

1. 准备服务器

2. 选一台服务器配置kafka安装包

2.1 下载安装包

2.2 解压安装包

2.3 修改配置文件

3. 分发安装包到其他机器

4. 修改每台机器的broker.id

5. 配置环境变量

6. 启停kafka服务

6.1 启动kafak服务

6.2 停止kafka服务 


1. 准备服务器

                1.买几台云服务器 或者 自己搭建个虚拟机

                2.机器间已经做了免密配置

                         192.168.0.211 worker01

                         192.168.0.212 worker02

                         192.168.0.213 worker03

                3.安装了JDK1.8 且配置了环境变量  不明白的可以看这里哦💪🏻

                4.安装了zookeeper3.6.3 且配置了环境变量  不明白的可以看这里哦💪🏻


2. 选一台服务器配置kafka安装包

2.1 下载安装包

#下载kafka安装包
wget http://archive.apache.org/dist/kafka/3.3.2/kafka_2.12-3.3.2.tgz

2.2 解压安装包

#解压安装包
tar -zxvf kafka_2.12-3.3.2.tgz 

2.3 修改配置文件

配置文件位置:	kafka_2.12-3.3.2/config/server.properties修改内容1:
#指定broker 在集群中的唯一编号,不能重复,只能是数字
broker.id=0	修改内容2:
#指定 kafak数据存放的路径,路径不需要提前创建,kafka 自动帮你创建,可以 配置多个磁盘路径,路径与路径之间可以用","分隔
#建议在kafka安装包内部创建
log.dirs=/home/software/kafka_2.12-3.3.2/kafka-logs修改内容3:
#配置连接 Zookeeper 集群地址(在 zk 根目录下创建/kafka,方便管理)
zookeeper.connect=worker01:2181,worker02:2181,worker03:2181/kafka

其他配置项说明,可根据实际情况按需配置

#broker 的全局唯一编号,不能重复,只能是数字
broker.id=0
#处理网络请求的线程数量 
num.network.threads=3
#用来处理磁盘 IO 的线程数量 
num.io.threads=8 
#发送套接字的缓冲区大小 
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小 
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka 运行日志(数据)存放的路径,路径不需要提前创建,kafka 自动帮你创建,可以 配置多个磁盘路径,路径与路径之间可以用","分隔 
log.dirs=/opt/module/kafka/datas
#topic 在当前 broker 上的分区个数
num.partitions=1
#用来恢复和清理 data 下数据的线程数量 
num.recovery.threads.per.data.dir=1
# 每个topic创建时的副本数,默认时1个副本 
offsets.topic.replication.factor=1
#segment 文件保留的最长时间,超时将被删除
log.retention.hours=168
#每个 segment 文件的大小,默认最大 1G 
log.segment.bytes=1073741824
#检查过期数据的时间,默认5分钟检查一次是否数据过期 
log.retention.check.interval.ms=300000
#配置连接 Zookeeper 集群地址(在 zk 根目录下创建/kafka,方便管理)
zookeeper.connect=worker01:2181,worker01:2181,worker01:2181/kafka

3. 分发安装包到其他机器

# 分发安装包到其他集群节点(worker02、worker03)
scp -r kafka_2.12-3.3.2 worker02:/home/software
scp -r kafka_2.12-3.3.2 worker03:/home/software

4. 修改每台机器的broker.id

tips : broker.id 不得重复,整个集群中唯一

1. 在 worker01 执行

#将 kafka_2.12-3.3.2/config/server.properties 中的 broker.id 设置为0
broker.id=0

2. 在 worker02 执行

2. 在 worker02 执行
#将 kafka_2.12-3.3.2/config/server.properties 中的 broker.id 设置为1
broker.id=1

3. 在 worker03 执行

3. 在 worker03 执行
#将 kafka_2.12-3.3.2/config/server.properties 中的 broker.id 设置为2
broker.id=2

5. 配置环境变量

有条件的可以 在/etc/profile.d目录下创建 worker_profile.sh 
或者直接修改 /etc/profile

#添加 kafka环境变量
export KAFKA_HOME=/home/software/kafka_2.12-3.3.2
export PATH=$KAFKA_HOME/bin:$PATH

tips: 记得执行下 source /etc/profile 让变量生效哦!


6. 启停kafka服务

6.1 启动kafak服务

tips:  先启动 Zookeeper 集群,然后再启动 Kafka服务

#1.启动kafak服务 (如果是集群模式,需要在每个节点上执行)
kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties

6.2 停止kafka服务 

tips:停止 Kafka 集群时,一定要等 Kafka 所有节点进程全部停止后再停止 Zookeeper集群

          因为 Zookeeper 集群当中记录着 Kafka 集群相关信息,Zookeeper 集群一旦先停止

          Kafka 集群就没有办法再获取停止进程的信息,只能手动杀死 Kafka 进程了

#停止kafak服务 (如果是集群模式,需要在每个节点上执行)
kafka-server-stop.sh

http://www.tj-hxxt.cn/news/67725.html

相关文章:

  • wordpress 数据 清理seo索引擎优化
  • 河北易县建设局官方网站百度网站优化公司
  • 温州手机网站制作打开全网搜索
  • 网站开发seo规范成品网站1688入口网页版
  • 江西省建设厅网站首页网页推广方案
  • 台州网页设计公司上海知名seo公司
  • yw55523can优物入口4虎成都网站seo费用
  • 哈尔滨企业自助建站系统免费做网站推广的软件
  • 昆山网站建设详细方案腾讯网网站网址
  • ftp可以发布网站吗百度推广代运营
  • 宣城做网站的公司品牌推广策划书范文案例
  • 网站建设中正在为您转中文搜索引擎网站
  • jsp做网站教程北京seo公司司
  • 1m的带宽做网站可以吗百度今日排行榜
  • 广西省建设注册管理网站怎么做小程序
  • 做网站建议四川seo技术培训
  • 灰色网站建设电商seo是什么意思
  • 门户营销型网站搭建网站关键词有哪些
  • 个人网站做百度推广苏州网站优化排名推广
  • 个人做网站的流程nba最新消息交易
  • 许昌做网站汉狮网络运营推广计划
  • 姑苏区做网站竞价推广是什么意思
  • 网站定位广告百度登录入口百度
  • 做便民工具网站怎么样为企业策划一次网络营销活动
  • 学校门户网站建设的好处百度广告费
  • 常州好搜网络科技有限公司seo排名的职位
  • 多肉建设网站的目的及功能定位浏览器搜索引擎大全
  • 一级a做爰片免费网站短视频友情链接方面
  • 做网站难还是appseo外包公司如何优化
  • 轻淘客网站建设北京网优化seo优化公司