南京网站建,微网站微名片,设计网站大全下载,经过开发建设 网站上线了Keepalived 一、Keepalived相关知识点概述1.1 单服务的风险#xff08;单点故障问题#xff09;1.2 一个合格的集群应该具备的特性1.3 VRRP虚拟路由冗余协议1.4 健康检查1.5 ”脑裂“现象 二、Keepalived2.1 Keepalived是什么#xff1f;2.2 Keepalived体系主要模块及其作用… Keepalived 一、Keepalived相关知识点概述1.1 单服务的风险单点故障问题1.2 一个合格的集群应该具备的特性1.3 VRRP虚拟路由冗余协议1.4 健康检查1.5 ”脑裂“现象 二、Keepalived2.1 Keepalived是什么2.2 Keepalived体系主要模块及其作用2.3 Keepalived工作原理2.4 keepalived如何实现故障切换2.5 抢占模式和非抢占模式的区别2.6 Keepalived通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP 三、实例一LVS高可用1Keepalived构建高可用集群2LVS – DR模式构建负载均衡集群3配置节点服务器准备测试页面4效果测试负载均衡5关闭主服务器的keepalived服务测试高可用 四、实例二Nginx高可用1编写nginx服务监控脚本2主备Keepalived配置3Nginx负载均衡配置4负载均衡测试5高可用测试 一、Keepalived相关知识点概述
1.1 单服务的风险单点故障问题 企业应用中单台服务器承担应用存在单点故障的危险
单点故障一旦发生企业服务将发生中断造成极大的危害和损失。
1.2 一个合格的集群应该具备的特性
1负载均衡 LVS ;NGINX;HAProxy;F5
2健康检查 : for 调度器/节点服务器Keepalived Heartbeat
3故障转移 : 主备切换工具
1.3 VRRP虚拟路由冗余协议
虚拟路由冗余协议(Virtual Router Redundancy Protocol简称VRRP)是一种路由容错协议也可以叫做备份路由协议。
VRRP可以将两台或者多台物理路由器设备虚拟成一个虚拟路由这个虚拟路由器通过虚拟IP对外提供服务而在虚拟路由器内部有多个物理路由器协同工作同一时间只有一台物理路由器对外提供服务这台物理路由设备被设置成为主路由器Master角色)一般情况下Master是由选举算法产生它拥有对外服务的虚拟IP提供各种网络功能而且其它的物理路由器不拥有对外的虚拟IP也不提供对外网络功能仅仅接收MASTER的VRRP状态通告信息这些路由器被统称为“BACKUP的角色”当主路由器失败时处于BACKUP角色的备份路由器将重新进行选举产生一个新的主路由器进入MASTER角色继续提供对外服务这种选举角色切换非常之快因而保证了服务的持续可用性。
1.4 健康检查
健康检查别名探针
1发送心跳消息 ping/pang
2TCP端口检查 向一个主机的IP:PORT 发起TCP连接
3 HTTP URL 检查 向一个主机的 http://IP:PORT/URL路径 发送HTTP GET请求方法主机响应返回2XX 3XX状态码则认为健康检查正常如响应返回4XX 5XX状态码则认为健康检查异常
检查服务器作用节点服务器如果发现有故障的节点就会将其隔离或者剔除集群待其恢复后再重新加入到集群当中负载均衡器会定时检查主服务器的状态包括主机和服务的状态如果主服务器故障就自动切换到备服务器上待主服务器恢复后再重新让主服务器去承载业务请求
1.5 ”脑裂“现象 定义 主备服务器同时拥有VIP 原因 主备服务器之间的通信链路中断导致备服务器无法正常收到主服务器发送的VRRP心跳报文 解决方法 关闭主服务器或者备服务器其中一个的keepalived服务。 如何预防 1主服务器与备服务器之间添加双通信链路
2在主服务器上定义运行脚本判断与备服务器通信链路是否中断如果中断则自行关闭keepalived服务
3利用第三方监控软件检测是否发生脑裂故障如果发生则通过监控软件关闭主或者备服务器上的keepalived服务。
二、Keepalived
官方网站http://www.keepalived.org/
2.1 Keepalived是什么
Keepalived是Linux下一个轻量级别的高可用解决方案可以实现服务的高可用或热备用来防止单点故障的问题。
Keepalived起初是为LVS设计的专门用来监控集群系统中各个服务节点的状态它根据TCP/IP参考模型的第三、第四层、第五层交换机制检测每个服务节点的状态如果某个服务器节点出现异常或者工作出现故障Keepalived将检测到并将出现的故障的服务器节点从集群系统中剔除这些工作全部是自动完成的不需要人工干涉。
Keepalived的核心是VRRP协议支持故障自动切换Failover 支持节点健康状态检查(Health Checking。
当master主机出现故障时及时切换到backup节点保证业务正常当master故障主机恢复后将其重新加入群集并且业务重新切换回master节点。
2.2 Keepalived体系主要模块及其作用
Keepalived的主要模块作用core模块为Keepalived的核心负责主进程的启动、维护及全局配置文件的加载和解析vrrp模块是来实现VRRP协议的check模块负责健康检查常见的方式有端口检查及URL检查
2.3 Keepalived工作原理
两台主备机器通过keepalived虚拟一个IP也就是VIP(Virtual IP)。
VIP开始为主机器所有备份机为空闲状态同时在两台keepalived之间通信相当于有一条心跳线通过心跳线互相通信只要主机器监控通过脚本到ngin服务停止则主机器自己停止keepalived将VIP交给备份机器处理web请求直至主机器再次恢复正常将VIP返还给主机器。
2.4 keepalived如何实现故障切换
在一个LVS服务集群中通常有主服务器MASTER和备份服务器BACKUP两种角色的服务器但是对外表现为一个虚拟IPVIP。
主服务器会发送VRRP通告信息给备份服务器当备份服务器收不到VRRP消息的时候即主服务器异常的
时候备份服务器就会接管虚拟IP继续提供服务从而保证了高可用性。
2.5 抢占模式和非抢占模式的区别
抢占模式即MASTER从故障中恢复后会将VIP从BACKUP节点中抢占过来。
非抢占模式即MASTER恢复后不抢占BACKUP升级为MASTER后的VIP。
非抢占式俩节点state必须为bakcup且必须配置nopreempt。
注意这样配置后我们要注意启动服务的顺序优先启动的获取master权限与优先级没有关系了。
2.6 Keepalived通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP
Keepalived首先做初始化先检查state状态master为主服务器backup为备服务器。
然后再对比所有服务器的priority谁的优先级高谁是最终的主服务器。
优先级高的服务器会通过ip命令为自己的电脑配置一个提前定义好的浮动IP地址。
三、实例一LVS高可用
名称IP地址LVS-Master192.168.2.100LVS-Backup192.168.2.102Web-A192.168.2.103Web-B192.168.2.104VIP192.168.2.188Client192.168.2.200 ┌──────────────┐│ Client ││192.168.2.200 │└──────┬───────┘│VIP:192.168.2.188┌────────┴────────┐┌──────┴───────┐ ┌───────┴──────┐│ Master │ │ Backup ││192.168.2.100 │ │192.168.2.102 │└──────┬───────┘ └───────┬──────┘└────────┬────────┘┌────────────────┼────────────────┐
┌──────┴───────┐ ┌──────┴───────┐
│ Web1 │ │ Web2 │
│192.168.2.103 │ │192.168.2.104 │
└──────────────┘ └──────────────┘1Keepalived构建高可用集群 前置准备 #关闭防火墙
systemctl disable firewalld.service --now
setenforce 0#安装keepalived
yum -y install ipvsadm keepalived#加载ip_vs内核模块
modprobe ip_vs
cat /proc/net/ip_vs修改配置文件主服务器 cd /etc/keepalived/
#备份配置文件
cp keepalived.conf keepalived.conf.bak#编辑配置文件
vim keepalived.conf
......
global_defs { #定义全局参数
--10行--修改邮件服务指向本地smtp_server 127.0.0.1
--12行--修改指定服务器路由器的名称主备服务器名称须不同主为LVS_01备为LVS_02router_id LVS_01
--14行--注释掉取消严格遵守VRRP协议功能否则VIP无法被连接#vrrp_strict
}vrrp_instance VI_1 { #定义VRRP热备实例参数
--20行--修改指定热备状态主为MASTER备为BACKUPstate MASTER
--21行--修改指定承载vip地址的物理接口interface ens33
--22行--修改指定虚拟路由器的ID号每个热备组保持一致 virtual_router_id 10#nopreempt #如果设置非抢占模式两个节点state必须为BACKUP并加上配置 nopreempt
--23行--修改指定优先级数值越大优先级越高这里设置主为100备为90priority 100advert_int 1 #通告间隔秒数(心跳频率)authentication { #定义认证信息,每个热备组保持一致auth_type PASS #认证类型
--27行--修改指定验证密码主备服务器保持一致auth_pass abc123}virtual_ipaddress { #指定群集vip地址192.168.2.188}
}
--36行--修改指定虚拟服务器地址(VIP)、端口定义虚拟服务器和Web服务器池参数
virtual_server 192.168.2.188 80 {delay_loop 6 #健康检查的间隔时间(秒)lb_algo rr #指定调度算法轮询(rr)
--39行--修改指定群集工作模式直接路由(DR)lb_kind DRpersistence_timeout 0 #连接保持时间(秒)protocol TCP #应用服务采用的是 TCP协议
--43行--修改指定第一个Web节点的地址、端口real_server 192.168.2.103 80 {weight 1 #节点的权重
--45行--删除添加以下健康检查方式 TCP_CHECK {connect_port 80 #添加检查的目标端口connect_timeout 3 #添加连接超时(秒)nb_get_retry 3 #添加重试次数delay_before_retry 3 #添加重试间隔}}real_server 192.168.2.104 80 { #添加第二个 Web节点的地址、端口weight 1TCP_CHECK {connect_port 80connect_timeout 3nb_get_retry 3delay_before_retry 3}}
##删除后面多余的配置##
}修改配置文件备服务器和主服务器大致相同 systemctl start keepalived
ip a #查看虚拟网卡vip2LVS – DR模式构建负载均衡集群
启动 ipvsadm 服务
#主DR 192.168.2.100
ipvsadm-save /etc/sysconfig/ipvsadm
systemctl start ipvsadmipvsadm -ln
#如没有VIP 的分发策略则重启 keepalived 服务systemctl restart keepalived#备DR 192.168.2.102
ipvsadm-save /etc/sysconfig/ipvsadm
systemctl start ipvsadmipvsadm -ln3配置节点服务器准备测试页面
systemctl stop firewalld
setenforce 0yum -y install httpd
systemctl start httpd#建立测试页
--192.168.80.100---
echo this is kgc web! /var/www/html/index.html--192.168.80.101---
echo this is benet web! /var/www/html/index.htmlvim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICElo:0
ONBOOTyes
IPADDR192.168.80.188
NETMASK255.255.255.255service network restart
ifup lo:0
ifconfig lo:0
route add -host 192.168.80.188 dev lo:0 #将VIP和lo:0绑定vim /etc/sysctl.confnet.ipv4.conf.lo.arp_ignore 1
net.ipv4.conf.lo.arp_announce 2
net.ipv4.conf.all.arp_ignore 1
net.ipv4.conf.all.arp_announce 2sysctl -p4效果测试负载均衡
浏览器访问VIP地址
192.168.2.1885关闭主服务器的keepalived服务测试高可用
systemctl stop keepalived然后浏览器访问VIP地址
192.168.2.188服务不受影响高可用测试成功。
四、实例二Nginx高可用
名称IP地址Nginx-Master192.168.2.100Nginx-Backup192.168.2.102Web-A192.168.2.103Web-B192.168.2.104VIP192.168.2.188Client192.168.2.200 1编写nginx服务监控脚本
#!/bin/bash
counter$(ps -C nginx --no-heading|wc -l)
if [ ${counter} 0 ]; then/usr/local/bin/nginxsleep 2counter$(ps -C nginx --no-heading|wc -l)if [ ${counter} 0 ]; then/etc/init.d/keepalived stopfi
fi#检查当前系统中是否有正在运行的nginx进程。
#如果没有正在运行的nginx进程尝试启动nginx服务并等待2秒后再次检查nginx进程。
#如果仍然没有nginx进程则停止keepalived服务。2主备Keepalived配置 主服务器 global_defs { router_id Nginx_01
}
vrrp_script check_nginx {script /etc/keepalived/check_nginx.shinterval 2weight -5fall 3rise 2
}
vrrp_instance VI_1 {state MASTERinterface ens33virtual_router_id 51priority 150advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {192.168.2.188}track_script {check_nginx}
}备服务器 global_defs { router_id Nginx_02
}
vrrp_script check_nginx {script /etc/keepalived/check_nginx.shinterval 2weight -5fall 3rise 2
}
vrrp_instance VI_1 {state BACKUPinterface ens33virtual_router_id 51priority 100advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {192.168.2.188}track_script {check_nginx}
}3Nginx负载均衡配置
#主备nginx都要配置四层反向代理
#以主为例
vim /apps/nginx/conf/nginx.conf
stream{upstream phpserver1 {server 172.16.2.20:9091;server 172.16.2.21:9092;
}server {listen 80;proxy_pass http://phpserver1;} }4负载均衡测试
客户端访问VIP地址
curl 192.168.2.188
执行多次观察结果5高可用测试
关闭主服务器的nginx服务
systemctl stop nginxcurl 192.168.2.188
#测试负载均衡