通过LVS+Keepalived搭建高可用的负载均衡集群系统

时间:2022-04-28 09:51:26

1、 安装LVS软件
      (1)安装前准备
操作系统:统一采用Centos6.5版本,地址规划如下:

1  服务器名               IP地址                 网关                 虚拟设备名    虚拟ip
2  Director Server       192.168.12.25         192.168.12.1        eth0:0       192.168.12.135
3  Real Server1          192.168.12.246        192.168.12.1        lo:0         192.168.12.135
4  Real Server2          192.168.12.247        192.168.12.1        lo:0         192.168.12.135

更详细的信息如下图所示: 
 图中的VIP指的是虚拟IP地址,还可以叫做LVS集群的服务IP,在DR、TUN模式中,数据包是直接返回给用户的,所以,在Director Server上以及集群的每个节点上都需要设置这个地址。此IP在Real Server上一般绑定在回环地址上,例如lo:0,同样,在Director Server上,虚拟IP绑定在真实的网络接口设备上,例如eth0:0。
 各个Real Server可以是在同一个网段内,也可以是相互独立的网段,还可以是分布在internet上的多个服务器.
1、 安装LVS软件
      (1)安装前准备
安装的LVS负载均衡集群拓扑图:

通过LVS+Keepalived搭建高可用的负载均衡集群系统

    (2)安装操作系统需要注意的事项
 Centos6.5版本的Linux,内核默认支持LVS功能,为了方便编译安装IPVS管理软件,在安装操作系统时,建议选择如下这些安装包:
 桌面环境:xwindows system、GNOME desktop environment。
 开发工具:development tools、x software development、gnome software、development、kde software development。
系统安装完毕,可以通过如下命令检查kernel是否已经支持LVS的ipvs模块:

1 [root@localhost ~]#modprobe -l |grep ipvs
2 /lib/modules/2.6.18-194.11.1.el5/kernel/net/ipv4/ipvs/ip_vs.ko
3 /lib/modules/2.6.18-194.11.1.el5/kernel/net/ipv4/ipvs/ip_vs_dh.ko

如果有类似上面的输出,表明系统内核已经默认支持了IPVS模块。接着就可以安装IPVS管理软件了.

(3)在Director Serve上安装IPVS管理软件
 IPVS提供的软件包有源码方式的也有rpm方式的,这里介绍下源码方式安装IPVS,首先从http://www.linuxvirtualserver.org/software/ipvs.html下载对应版本的ipvs源码,这里我们下载ipvsadm-1.24版本,进行安装:

1 [root@localhost ~]#tar zxvf ipvsadm-1.24.tar.gz
2 [root@localhost ~]#cd ipvsadm-1.24
3 [root@localhost ~]#make
4 [root@localhost ~]#make install

注意:在make时可能会出现错误编译信息,这是由于编译程序找不到对应内核的原因,按照如下操作就可以正常编译:

[root@localhost ~]#ln -s /usr/src/kernels/2.6.18-128.el5-i686/  /usr/src/linux

也可以下载rpm安装包,通过rpm方式进行安装:

1 [root@localhost ~]#rpm –ivh ipvsadm-1.24-6.1.i386.rpm
2 然后执行:
3 [root@localhost ~]# ipvsadm --help 

如果看到帮助提示,表明IPVS已经成功安装。

(4)ipvsadm的用法:

通过LVS+Keepalived搭建高可用的负载均衡集群系统

通过LVS+Keepalived搭建高可用的负载均衡集群系统

2、 开始配置LVS集群
 下面通过搭建www服务的负载均衡实例,讲述基于DR模式的LVS集群配置。
 (1) Director Server的配置
 在Director Server上配置LVS负载均衡集群,有两种方法:
 <1.通过ipvsadm命令行进行配置
 <2.通过Redhat提供的工具piranha来配置LVS

1)通过ipvsadm命令行方式配置LVS  安装IPVS后,就可以配置LVS集群了,首先在Director Server上绑定一个虚拟IP(也叫VIP),此IP用于对外提供服务,执行如下命令:

[root@localhost ~]#ifconfig eth0:0 192.168.12.135 broadcast 192.168.12.135 netmask 255.255.255.255 up     #此处在eth0设备上绑定了一个虚拟设备eth0:0,
同时设置了一个虚拟IP是192.168.12.135,也就是上面我们规划的IP地址,然后指定广播地址也为192.168.12.135,需要特别注意的是,这里的子网掩码为255.255.255.255。 然后给设
备eth0:0指定一条路由,执行如下指令:
[root@localhost ~]#route add -host 192.168.12.135 dev eth0:0
[root@localhost ~]#echo "1" >/proc/sys/net/ipv4/ip_forward #指令中,参数值为1时启用ip转发,为0时禁止ip转发。其实在DR模式中,开启系统的包转发功能不是
必须的,而在NAT模式下此操作是必须的。

然后开始配置ipvs,执行如下操作:

1 [root@localhost ~]#ipvsadm -C
2 [root@localhost ~]#ipvsadm -A -t 192.168.12.135:80 -s rr -p 600
3 [root@localhost ~]#ipvsadm -a -t 192.168.12.135:80 -r 192.168.12.246:80 -g
4 [root@localhost ~]#ipvsadm -a -t 192.168.12.135:80 -r 192.168.12.237:80 -g
5 #上面操作中,第一行是清除内核虚拟服务器列表中的所有记录,第二行是添加一条新的虚拟IP记录。这个新的IP是192.168.12.135,同时指定持续服务时间为600秒。
6 #第三、四行是在新加虚拟IP记录中添加两条新的Real Server记录,并且指定LVS 的工作模式为直接路由模式。
7 最后,启动LVS服务,执行如下操作: 8 [root@localhost ~]#ipvsadm

这样,LVS在Director Server上的配置就完成了.
为了管理和配置的方便,可以将上面的操作写成一个脚本文件,脚本内容如下:

通过LVS+Keepalived搭建高可用的负载均衡集群系统通过LVS+Keepalived搭建高可用的负载均衡集群系统
#!/bin/sh
# description: Start LVS of Director server
VIP=192.168.12.135
RIP1=192.168.12.246
RIP2=192.168.12.237
./etc/rc.d/init.d/functions
case "$1" in
    start)
        echo " start LVS of Director Server"
# set the Virtual  IP Address and sysctl parameter
 /sbin/ifconfig eth0:0 $VIP broadcast $VIP netmask 255.255.255.255 up
       echo "1" >/proc/sys/net/ipv4/ip_forward 
#Clear IPVS table
       /sbin/ipvsadm -C
#set LVS
/sbin/ipvsadm -A -t $VIP:80 -s rr -p 600
/sbin/ipvsadm -a -t $VIP:80 -r $RIP1:80 -g
/sbin/ipvsadm -a -t $VIP:80 -r $RIP2:80 -g
#Run LVS
      /sbin/ipvsadm
       ;;
    stop)
        echo "close LVS Directorserver"
        echo "0" >/proc/sys/net/ipv4/ip_forward
        /sbin/ipvsadm -C
        /sbin/ifconfig eth0:0 down
        ;;
    *)
        echo "Usage: $0 {start|stop}"
        exit 1
Esac
管理脚本

2)通过Redhat提供的工具piranha来配置LVS
 Piranha是REDHAT提供的一个基于Web的LVS配置软件,可以省去手工配置LVS的繁琐工作,同时,也可单独提供cluster功能,例如,可以通过Piranha激活Director Server的后备主机,也就是配置Director Server的双机热备功能。
 Piranha工具的安装非常简单,下载Piranha的rpm包,进行安装即可:

[root@localhost ~]#rpm –ivh piranha-0.8.2-1.i386.rpm

Piranha安装完毕后,会产生/etc/sysconfig/ha/lvs.cf文件,默认此文件是空的,可以通过Piranha提供的web界面配置此文件,也可以直接手动编辑此文件,编辑好的lvs.cf文件内容类似如下:

[root@localhost ~]# more /etc/sysconfig/ha/lvs.cf
serial_no = 18              #序号。
primary = 192.168.12.25     #指定主Director Server的真实IP地址,是相对与有备用的Director Server而言的,也就是给Director Server做HA Cluster。
service = lvs               #指定双机的服务名。
backup_active = 0                   #是否激活备用Director Server。“0”表示不激活,“1”表示激活。
backup = 0.0.0.0            #这里指定备用Director Server的真实IP地址,如果没有备用Director Server,可以用“0.0.0.0”代替。
heartbeat = 0                    #是否开启心跳,1表示开启,0表示不开启。
heartbeat_port = 539             #指定心跳的UDP通信端口。
keepalive = 5               #心跳间隔时间,单位是秒。
deadtime = 10                #如果主Director Server在deadtime(秒)后没有响应,那么备份DirectorServer就会接管主Director Server的服务。
network = direct            #指定LVS的工作模式,direct表示DR模式,nat表示NAT模式,tunnel表示TUNL模式。
debug_level = NONE          #定义debug调试信息级别。
virtual www.ixdba.net{      #指定虚拟服务的名称。
active = 1                                 #是否激活此服务。
address = 192.168.12.135 eth0:0  #虚拟服务绑定的虚拟IP以及网络设备名。
port = 80                   #虚拟服务的端口。
send = "GET / HTTP/1.0\r\n\r\n"  #给real server发送的验证字符串
expect = "HTTP"             #服务器正常运行时应该返回的文本应答信息,用来判断real server是否工作正常。
use_regex = 0               # expect选项中是否使用正则表达式,0表示不使用,1表示使用。
load_monitor = none         #LVS中的Director Server能够使用 rup 或 ruptime 来监视各个real server的负载状态。该选项有3个可选值,rup、ruptime和none,如果选
                  择rup,每个real server就必须运行rstatd服务。如果选择了ruptime,每个real server就必须运行 rwhod 服务。
scheduler = rr #指定LVS的调度算法。 protocol = tcp #虚拟服务使用的协议类型。 timeout = 6 #real server失效后从lvs路由列表中移除失效real server所必须经过的时间,以秒为单位。 reentry = 15 #某个real server被移除后,重新加入lvs路由列表中所必须经过的时间,以秒为单位。 quiesce_server = 0 #如果此选项为1.那么当某个新的节点加入集群时,最少连接数会被重设 为零,因此LVS会发送大量请求到此服务节点,造成新的节点服务阻塞, 建议设置为0。 server RS1 { #指定real server服务名。 address = 192.168.12.246 #指定real server的IP地址。 active = 1 #是否激活此real server服务。 weight = 1 #指定此real server的权值,是个整数值,权值是相对于所有real server节点而言的,权值高的real server处理负载的性能相对较强。 } server RS2 { address = 192.168.12.237 active = 1 weight = 1 } } 编辑完成,然后启动pulse服务,即启动lvs服务 [root@localhost ~]#service pulse start 同理,此种方式下也要启用系统的包转发功能: [root@localhost ~]#echo "1" >/proc/sys/net/ipv4/ip_forward

到此为止,Piranha工具方式配置Director Server完毕。

3、Real server 的配置  在lvs的DR和TUn模式下,用户的访问请求到达真实服务器后,是直接返回给用户的,而不再经过前端的Director Server,因此,就需要在每个Real server节点上增加虚拟的VIP地址,这样数据才能直接返回给用户,增加VIP地址的操作可以通过创建脚本的方式来实现,创建文件/etc/init.d/lvsrs,脚本内容如下:

 1 #!/bin/bash
 2 VIP=192.168.12.135
 3 /sbin/ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 up
 4 /sbin/route add -host $VIP dev lo:0
 5 echo “1″ >/proc/sys/net/ipv4/conf/lo/arp_ignore
 6 echo “2″ >/proc/sys/net/ipv4/conf/lo/arp_announce
 7 echo “1″ >/proc/sys/net/ipv4/conf/all/arp_ignore
 8 echo “2″ >/proc/sys/net/ipv4/conf/all/arp_announce
 9 sysctl -p
10 #end

     此操作是在回环设备上绑定了一个虚拟IP地址,并设定其子网掩码为255.255.255.255,与Director Server上的虚拟IP保持互通,然后禁止了本机的ARP请求。
由于虚拟ip,也就是上面的VIP地址,是Director Server和所有的Real server共享的,如果有ARP请求VIP地址时,Director Server与所有Real server都做应答的话,就出现问题了,因此,需要禁止Real server响应ARP请求。而lvsrs脚本的作用就是使Real Server不响应arp请求。

4、在Director上配置冗余策略 Ldirectord

如果是通过Piranha工具配置LVS,就无需使用ldirectord,Piranha工具对应的系统进程是pluse,此进程也会自动调用ipvsadm创建LVS路由表,同时会利用自身的nanny守护进程监控real server的状态,这里只是讲解其中的另一种配置方法.
 在heartbeat中,ldirectord其实是作为它的一个插件出现的,所以它默认包含在heartbeat软件包中,Ldirectord的核心作用是监控Real Server节点状态,当Real Server失效时,把它从虚拟服务器列表中删除,恢复时重新添加到列表,同时,它还能调用ipvsadm自动创建LVS路由表,这点从下面要讲述的ldirectord.cf中可以看出,这里需要说明的是,ldirectord和Piranha都具有监控Real Server的功能,如果要通过ldirectord监控节点状态,只需启动ldirectord服务,整个集群系统就可以运行起来,而无需执行上面我们配置的LVS脚本,因为ldirectord会自动调用ipvsadm创建LVS路由表,而我们上面讲述的利用ipvsadm命令行方式配置LVS,是为了让读者能更深入的了解ipvsadm的实现细节和实现机制。
 ldirectord的安装非常简单,直接通过yum就可以安装完成:
[root@localhost root]#yum install  heartbeat-ldirectord
安装完成后,默认的安装路径为/etc/ha.d,同时需要将模板配置文件拷贝到这个目录下,执行如下命令:
[root@localhost root]# rpm -q heartbeat-ldirectord -d                              
/usr/share/doc/heartbeat-ldirectord-2.1.3/ldirectord.cf
/usr/share/man/man8/ldirectord.8.gz
[root@localhost root]# cp /usr/share/doc/heartbeat-ldirectord-2.1.3/ldirectord.cf /etc/ha.d
可以通过执行如下命令启动或关闭ldirectord服务
/etc/init.d/ldirectord {start|stop}
Ldirectord的配置文件是/etc/ha.d/ldirectord.cf,下面详述下这个文件每个参数的含义:

下面是需要配置的选项,注意,“#”号后面的内容为注释:

# Global Directives
checktimeout=20           #判定real server出错的时间间隔。
checkinterval=10          #指定ldirectord在两次检查之间的间隔时间。
fallback=127.0.0.1:80     #当所有的real server节点不能工作时,web服务重定向的地址。
autoreload=yes            #是否自动重载配置文件,选yes时,配置文件发生变化,自动载入配置信息。
logfile="/var/log/ldirectord.log"      #设定ldirectord日志输出文件路径。
quiescent=no              #当选择no时,如果一个节点在checktimeout设置的时间周期内没有响应,ldirectord将会从LVS的路由表中直接移除real server,此时,将中断现有的客
户端连接,并使LVS丢掉所有的连接跟踪记录和持续连接模板,如果选择为yes,当某个real server失效时,ldirectord将失效节点的权值设置为0,新的连接将不能到达,但是并不从LVS路由
表中清除此节点,同时,连接跟踪记录和程序连接模板仍然保留在Director上。
注意:以上几行为ldirectord.cf文件的“全局”设置,它们可以应用到下面多个虚拟主机,下面是每个虚拟主机的配置。 # Sample for an http virtual service virtual=192.168.12.135:80 #指定虚拟的IP地址和端口号,注意,在virtual行后面的行必 须缩进4个空格或以一个tab字符进行标记。 real=192.168.12.246:80 gate #指定Real Server服务器地址和端口,同时设定LVS工作模式, 用gate表示DR模式,ipip表示TUNL模式,masq表示NAT模式。 real=192.168.12.237:80 gate fallback=127.0.0.1:80 gate service=http #指定服务的类型,这里是对http服务做负载均衡。 request="index.html" #ldirectord将根据指定的Real Server地址,结合该选项给出 的请求路径,发送访问请求,检查Real Server上的服务是否正常运行,确保这里给出的页面地址是可访问的,不然ldirectord会误认为此节点已经失效,发生错误监控现象。 receive="Test Page" #指定请求和应答字串。 scheduler=rr #指定调度算法,这里是rr(轮叫)算法。 protocol=tcp #指定协议的类型,LVS支持TCP和UDP协议。 checktype=negotiate #指定Ldirectord的检测类型,默认为negotiate。 checkport=80 #指定监控的端口号。 virtualhost=www.ixdba.net #虚拟服务器的名称,随便指定。

5、 启动LVS集群服务
         LVS负载均衡管理和使用有两种方式,这里以Piranha工具为主进行介绍。
首先,启动每个real server节点的服务:

[root@localhost ~]# /etc/init.d/lvsrs  start
 start LVS  of  REALServer
然后,在Director Server启动pulse服务:
[root@DR1 ~]#/etc/init.d/pulse start
[root@DR1 ~]#/ ipvsadm -L
IP Virtual Server version 1.2.0 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port          Forward  Weight  ActiveConn InActConn
TCP  192.168.12.135:http rr persistent 600
  -> 192.168.12.246:http          Route    1         3          22        
  -> 192.168.12.237:http          Route    1         9          10

此时查看pulse服务的系统日志信息如下:

[root@localhost ~]# tail -f /var/log/messages
Nov 22 15:52:55 lvs lvs[7031]: starting virtual service www.ixdba.net active: 80
Nov 22 15:52:55 lvs lvs[7031]: create_monitor for www.ixdba.net/RS1 running as pid 7039
Nov 22 15:52:55 lvs nanny[7039]: starting LVS client monitor for 192.168.12.135:80
Nov 22 15:52:55 lvs lvs[7031]: create_monitor for www.ixdba.net/RS2 running as pid 7040
Nov 22 15:52:55 lvs nanny[7039]: making 192.168.12.246:80 available
Nov 22 15:52:55 lvs nanny[7040]: starting LVS client monitor for 192.168.12.135:80
Nov 22 15:52:55 lvs nanny[7040]: making 192.168.12.237:80 available

    从日志可以看出,pulse服务启动了一个www.ixdba.net的虚拟服务,同时加载了RS1和RS2两个节点,然后检测到RS1和RS2两个节点对应的80端口可用,最后启动了虚拟IP的80端口,对外提供服务。
日志中“www.ixdba.net”、“RS1”、“RS2”等标识均在Piranha的配置文件/etc/sysconfig/ha/lvs.cf中定义。
Pulse服务启动完毕,通过“ps –ef”命令可以看到有如下进程在运行:

[root@localhost ~]#  ps -ef|grep nanny
/usr/sbin/nanny -c -h 192.168.12.246 -p 80 -s GET / HTTP/1.0\r\n\r\n -x HTTP -a 15 -I /
/usr/sbin/nanny -c -h 192.168.12.237 -p 80 -s GET / HTTP/1.0\r\n\r\n -x HTTP -a 15 -I /
其中,nanny就是Pulse服务的守护进程,用于监控LVS服务节点的运行状态,类似与ldirectord的节点监控功能。

6、 LVS+Keepalived构建拓扑图:

通过LVS+Keepalived搭建高可用的负载均衡集群系统

 7、安装Keepalived
 keepalived起初是为LVS设计的,专门用来监控集群系统中各个服务节点的状态,后来又加入了VRRP的功能,VRRP是Virtual Router Redundancy Protocol(虚拟路由器冗余协议)的缩写,VRRP出现的目的就是为了解决静态路由出现的单点故障问题,它能够保证网络的不间断、稳定的运行。所以,keepalived一方面具有服务器健康检测功能,另一方面也具有HA cluster功能。 
 Keepalived的官方站点是http://www.keepalived.org,可以在这里下载到各种版本,我们这里下载的是keepalived-1.1.19.tar.gz,安装步骤如下:

[root@DR1 ~]#tar zxvf keepalived-1.1.19.tar.gz
[root@DR1 ~]#cd keepalived-1.1.19
[root@DR1 keepalived-1.1.19]#./configure   --sysconf=/etc \
> --with-kernel-dir=/usr/src/kernels/2.6.18-8.el5-i686
[root@DR1 keepalived-1.1.19]#make
[root@DR1 keepalived-1.1.19]#make install
[root@DR1 keepalived-1.1.19]#ln -s /usr/local/sbin/keepalived  /sbin/
   #在编译选项中,“--sysconf”指定了Keepalived配置文件的安装路径,即路径为/etc/Keepalived/Keepalived.conf,“--with-kernel-dir”这是个很重要的参数,但这个参数并不
是要把Keepalived编译进内核,而是指定使用内核源码里面的头文件,就是include目录。如果要使用LVS时,才需要用到此参数,否则是不需要的。

8、配置Keepalived
 Keepalived的配置非常简单,仅仅需要一个配置文件即可完成HA cluster和lvs服务节点监控功能,Keepalived的安装已经在上面章节进行了介绍,在通过Keepalived搭建高可用的LVS集群实例中,主、备Director Server都需要安装Keepalived软件,安装成功后,默认的配置文件路径为/etc/Keepalived/Keepalived.conf。一个完整的keepalived配置文件,有三个部分组成,分别是全局定义部分、vrrp实例定义部分以及虚拟服务器定义部分,下面详细介绍下这个配置文件中每个选项的详细含义和用法:

 1 #全局定义部分
 2 global_defs {
 3    notification_email {
 4      dba.gao@gmail.com        #设置报警邮件地址,可以设置多个,每行一个。注意,如果要开启邮件报警,需要开启本机的sendmail服务。
 5      ixdba@163.com
 6    }
 7    notification_email_from Keepalived@localhost        #设置邮件的发送地址。
 8    smtp_server 192.168.200.1    #设置smtp server地址。
 9    smtp_connect_timeout 30    #设置连接smtp服务器超时时间。
10    router_id  LVS_MASTER    #运行Keepalived服务器的一个标识。发邮件时显示在邮件标题中的信息
11 }
12 
13 #vrrp实例定义部分
14 vrrp_instance VI_1 {
15 state MASTER        #指定Keepalived的角色,MASTER表示此主机是主用服务器,BACKUP表示是备用服务器。
16     interface eth0                                #指定HA监测网络的接口。
17     virtual_router_id 51    #虚拟路由标识,这个标识是一个数字,并且同一个vrrp实例使用唯一的标识,即同一个vrrp_instance下,MASTER和BACKUP必须是一致的。
18 priority 100    #定义优先级,数字越大,优先级越高,在一个vrrp_instance下,MASTER的优先级必须大于BACKUP的优先级。
19     advert_int 1      #设定MASTER与BACKUP负载均衡器之间同步检查的时间间隔,单位是秒。
20     authentication {                             #设定验证类型和密码。
21         auth_type PASS                    #设置验证类型,主要有PASS和AH两种。
22         auth_pass 1111    #设置验证密码,在一个vrrp_instance下,MASTER与BACKUP必须使用相同的密码才能正常通信。
23     }
24     virtual_ipaddress {        #设置虚拟IP地址,可以设置多个虚拟IP地址,每行一个。
25         192.168.12.135
26     }
27 }
28 
29 #虚拟服务器定义部分
30 virtual_server 192.168.12.135 80 {       #设置虚拟服务器,需要指定虚拟ip地址和服务端口,ip与端口之间用空格隔开。
31     delay_loop 6                        #设置健康检查时间,单位是秒。
32     lb_algo rr                   #设置负载调度算法,这里设置为rr,即轮询算法。
33     lb_kind DR                          #设置LVS实现负载均衡的机制,可以有NAT、TUN和DR三个模式可选。
34 persistence_timeout 50                  #会话保持时间,单位是秒,这个选项对于动态网页是非常有用的,为集群系统中session共享提供了一个很好的解决方案。
35 protocol TCP #指定转发协议类型,有tcp和udp两种。 36 37 real_server 192.168.12.246 80 { #配置服务节点1,需要指定real server的真实IP地址和端口,ip与端口之间用空格隔开。 38 weight 3 #配置服务节点的权值,权值大小用数字表示,数字越大,权值越高.
39 TCP_CHECK { #realserve的状态检测设置部分,单位是秒 40 connect_timeout 10 #10秒无响应超时 41 nb_get_retry 3 #重试次数 42 delay_before_retry 3 #重试间隔 43 } 44 } 45 46 real_server 192.168.12.237 80 { #配置服务节点2 47 weight 1 48 TCP_CHECK { 49 connect_timeout 3 50 nb_get_retry 3 51 delay_before_retry 3 52 } 53 } 54 }

在配置Keepalived.conf时,需要特别注意配置文件的语法格式,因为Keepalived在启动时并不检测配置文件的正确性,即使没有配置文件,Keepalived也照样能启动起来,因而配置文件一定要正确。
 在默认情况下,Keepalived在启动时会查找/etc/Keepalived/Keepalived.conf配置文件,如果你的配置文件放在了其它路径下,可以通过“Keepalived  -f”参数指定你所在的配置文件路径即可。
 Keepalived.conf配置完毕后,将此文件拷贝到备用Director Server对应的路径下,然后做两个简单的修改即可:
 将“state MASTER”更改为“state BACKUP”
 将priority 100更改为一个较小的值,这里改为“priority 80”
 最后,还要配置集群的Real server节点,以达到与Director Server相互广播通信并忽略arp的目的,脚本的内容已经在上面进行介绍,这里不做解释。
9、启动Keepalived+lvs集群系统
 在主、备Director Server上分别启动Keepalived服务,可以执行如操下作:

 [root@DR1 ~]#/etc/init.d/Keepalived  start

 接着在两个Real server上执行如下脚本:

 [root@rs1~]#/etc/init.d/lvsrs start

至此,Keepalived+lvs高可用的LVS集群系统已经运行起来了。
.

.

.

本文内容摘自华章教育: