首页 技术经验

centos ipvsadm

centos ipvsadm
魔兔技术网为你分享关于《centos ipvsadm》的相关技术文章,通过对centos ipvsadm的学习,希望你能对centos ipvsadm的相关知识:centos ipvsadm,有更深层次的理解,并对centos ipvsadm学有所得!,下面是详细的技术问答讲解!
阅读数
203189
话题:centos ipvsadm

通过rpm包安装的ipvsadm怎么设置

通过rpm包安装的ipvsadm怎么设置

检查是否支持
# modprobe -l|grep ipvs
或#lsmod |grep ip_vs
如果在/lib/modules/2.6.18-128.el5/kernel/net/ipv4/ipvs下有很多ip_vs*这样的文件说明,ipvs模块已经加入。
软件安装
一、RPM安装:
1、根据内核安装相应版本的lvs
下载地址http://www.linuxvirtualserver.org/software
我下载的是ipvsadm-1.24-6.src.rpm
2、修改打包文件
#rpmbuild -bb /usr/src/redhat/SPECS/ipvsadm.spec出现:
error: Legacy syntax is unsupported: copyright等错误信息时,修改ipvsadm.spec,
将其中的Copyright:标签改成License:即可。
3、创建链接文件
#ln -s /usr/src/kernels/2.6.18-128.el5-i686 /usr/src/linux
不创建链接会出现:libipvs.h:14:23: net/ip_vs.h: No such file or directory等编译错误。
4、#rpmbuild -bb /usr/src/redhat/SPECS/ipvsadm.spec
二、TAR安装:
#下载软件
#wget http://www.linuxvirtualserver.org/software/kernel-2.6/ipvsadm-1.24.tar.gz
#解压缩
#tar -zxvf ipvsadm-1.24.tar.gz
#cd ipvsadm-1.24
#建立编译时必须的一个软链接
#ln -s /usr/src/kernels/2.6.9-42.EL-i686/ /usr/src/linux
#编译安装
#make && make install
#确认安装成功
#whereis ipvsadm
lvs-dr模式:
配置vip server
#vi /usr/local/vip.sh
#!/bin/bash
# description: start LVS of DirectorServer
GW=192.168.1.250
# website director vip.
SNS_VIP=192.168.1.244
SNS_RIP1=192.168.1.223
SNS_RIP2=192.168.1.224

. /etc/rc.d/init.d/functions

logger $0 called with $1

case "$1" in

start)
# set squid vip
#/sbin/ipvsadm --set 30 5 60
/sbin/ifconfig eth0:0 $SNS_VIP broadcast $SNS_VIP netmask 255.255.255.255 up
/sbin/route add -host $SNS_VIP dev eth0:0
/sbin/ipvsadm -C

/sbin/ipvsadm -A -t $SNS_VIP:80 -s wrr -p 1
#/sbin/ipvsadm -A -t $SNS_VIP:80 -s rr
/sbin/ipvsadm -a -t $SNS_VIP:80 -r $SNS_RIP1:80 -g -w 1
#/sbin/ipvsadm -a -t $SNS_VIP:80 -r $SNS_RIP1 -g
/sbin/ipvsadm -a -t $SNS_VIP:80 -r $SNS_RIP2:80 -g -w 1
#/sbin/ipvsadm -a -t $SNS_VIP:80 -r $SNS_RIP2 -g
/sbin/ipvsadm
touch /var/lock/subsys/ipvsadm >/dev/null 2>&1
;;
stop)
/sbin/ipvsadm -C
/sbin/ipvsadm -Z
ifconfig eth0:0 down
ifconfig eth0:1 down
route del $SNS_VIP
#route del $SS_VIP
rm -rf /var/lock/subsys/ipvsadm >/dev/null 2>&1
echo "ipvsadm stoped"
;;

status)

if [ ! -e /var/lock/subsys/ipvsadm ];then
echo "ipvsadm stoped"
exit 1
else
echo "ipvsadm OK"
fi
;;

*)
echo "Usage: $0 {start|stop|status}"
exit 1
esac

exit 0
启动ipvsadm服务
#chmod 777 /usr/local/vip.sh
#/usr/local/vip.sh start
出现:
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP localhost:http wrr persistent 1
-> localhost:http Route 1 0 0
-> localhost:http Route 1 0 0
表明ipvsadm已经启动并正常工作,用#ipvsadm -L也可查询ipvsadm状态。
配置两个realserver,配置相同
#vi /usr/local/realserver.sh
#!/bin/bash
# description: Config realserver lo and apply noarp
SNS_VIP=192.168.1.244
. /etc/rc.d/init.d/functions
case "$1" in
start)
ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP up
/sbin/route add -host $SNS_VIP dev lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
sysctl -p >/dev/null 2>&1
echo "RealServer Start OK"
;;
stop)
ifconfig lo:0 down
route del $SNS_VIP >/dev/null 2>&1
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce
echo "RealServer Stoped"
;;
*)
echo "Usage: $0 {start|stop}"
exit 1
esac
exit 0
启动realserver
#chmod 777 /usr/local/realserver.sh
#/usr/local/realserver.sh start
出现:
RealServer Start OK

apache配置:
在两个realserver服务器的apache首页设置分别为:11111111111、2222222222
测试
用浏览器打开:http://192.168.1.244,即可看到1111111111或22222222222
#ipvsadm -lcn
查看负载链接状况,在测试中发现:
设置tcp超时时间#ipvsadm --set 200 200 20
查看tcp超时时间#ipvsadm -L --timeout
Timeout (tcp tcpfin udp): 200 200 20
但实际在轮叫时,timeout时间总为60秒,一直不明白为什么,郁闷。
--------------------------------------------------------------------------
ipvsadm 的命令参考:
1,virtual-service-address:是指虚拟服务器的ip 地址
2,real-service-address:是指真实服务器的ip 地址
3,scheduler:调度方法
(lna@networksbase.com 翻译 ipvsadm v1.21 2004 年4 月)
ipvsadm 的用法和格式如下:
ipvsadm -A|E -t|u|f virutal-service-address:port [-s scheduler] [-p
[timeout]] [-M netmask]
ipvsadm -D -t|u|f virtual-service-address
ipvsadm -C
ipvsadm -R
ipvsadm -S [-n]
ipvsadm -a|e -t|u|f service-address:port -r real-server-address:port
[-g|i|m] [-w weight]
ipvsadm -d -t|u|f service-address -r server-address
ipvsadm -L|l [options]
ipvsadm -Z [-t|u|f service-address]
ipvsadm --set tcp tcpfin udp
ipvsadm --start-daemon state [--mcast-interface interface]
ipvsadm --stop-daemon
ipvsadm -h
命令选项解释:
有两种命令选项格式,长的和短的,具有相同的意思。在实际使用时,两种都可
以。
-A --add-service 在内核的虚拟服务器表中添加一条新的虚拟服务器记录。也
就是增加一台新的虚拟服务器。
-E --edit-service 编辑内核虚拟服务器表中的一条虚拟服务器记录。
-D --delete-service 删除内核虚拟服务器表中的一条虚拟服务器记录。
-C --clear 清除内核虚拟服务器表中的所有记录。
-R --restore 恢复虚拟服务器规则
-S --save 保存虚拟服务器规则,输出为-R 选项可读的格式
-a --add-server 在内核虚拟服务器表的一条记录里添加一条新的真实服务器
记录。也就是在一个虚拟服务器中增加一台新的真实服务器
-e --edit-server 编辑一条虚拟服务器记录中的某条真实服务器记录
-d --delete-server 删除一条虚拟服务器记录中的某条真实服务器记录
-L|-l --list 显示内核虚拟服务器表
-Z --zero 虚拟服务表计数器清零(清空当前的连接数量等)
--set tcp tcpfin udp 设置连接超时值
--start-daemon 启动同步守护进程。他后面可以是master 或backup,用来说
明LVS Router 是master 或是backup。在这个功能上也可以采用keepalived 的
VRRP 功能。
--stop-daemon 停止同步守护进程
-h --help 显示帮助信息
其他的选项:
-t --tcp-service service-address 说明虚拟服务器提供的是tcp 的服务
[vip:port] or [real-server-ip:port]
-u --udp-service service-address 说明虚拟服务器提供的是udp 的服务
[vip:port] or [real-server-ip:port]
-f --fwmark-service fwmark 说明是经过iptables 标记过的服务类型。
-s --scheduler scheduler 使用的调度算法,有这样几个选项
rr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq,
默认的调度算法是: wlc.
-p --persistent [timeout] 持久稳固的服务。这个选项的意思是来自同一个客
户的多次请求,将被同一台真实的服务器处理。timeout 的默认值为300 秒。
-M --netmask netmask persistent granularity mask
-r --real-server server-address 真实的服务器[Real-Server:port]
-g --gatewaying 指定LVS 的工作模式为直接路由模式(也是LVS 默认的模式)
-i --ipip 指定LVS 的工作模式为隧道模式
-m --masquerading 指定LVS 的工作模式为NAT 模式
-w --weight weight 真实服务器的权值
--mcast-interface interface 指定组播的同步接口
-c --connection 显示LVS 目前的连接 如:ipvsadm -L -c
--timeout 显示tcp tcpfin udp 的timeout 值 如:ipvsadm -L --timeout
--daemon 显示同步守护进程状态
--stats 显示统计信息
--rate 显示速率信息
--sort 对虚拟服务器和真实服务器排序输出
--numeric -n 输出IP 地址和端口的数字形式


centos lvs干什么用的

centos lvs干什么用的

CentOS系统之LVS负载均衡群集
一、群集技术的概述
1、群集的类型
无论是那种群集,都至少包括两台节点服务器,而外表现为一个整体,只提供一个访问入口,相当于一台大型计算机。根据群集所针对的目标差异,可分为以下三种内型。
负载均衡群集:以提高应用系统的响应能力,尽可能处理更多的访问请求,减少延迟,获得高并发,高负载的整天性能,例如:“DNS轮询”,“应用层交换”,“反向代理”等都可以做负载均衡群集。
高可用群集:以提高应用系统的可靠性,尽可能地减少中断时间,确保服务的连续性,达到高可用的容错效果,例如:“故障切换”,“双机热备”,“多机热备”等都属于高可用群集。
高性能运算群集:以提高应用系统的CPU运算速度,扩展硬件资源和分析能力,获得相当于大型,超级计算机的高性能运算能力,例如:“云计算”等就属于高性能运算群集的一种。
2、负载均衡的分层结构
在典型的负载均衡群集中,包括以下三个层次的组件。
第一层:负载调度器,这是访问整个群集系统的唯一入口,多外使用所有服务器共有的VIP(虚拟IP)地址,也称群集IP地址。通常会配置主,备两台调度器实现热备,当主调度器失效以后平滑替换至备用调度器,确保高可用性。
第二层:服务器池:群集所提供的应用服务由服务器池承担,其中的每个节点具有独立的RIP(真实IP)地址,只处理调度器分发过来的客户机请求。
第三层:共享存储,为服务器池中的所有节点提供稳定,一致的文件存取服务,确保整个群集的统一性。在Linux环境中,共享存储可以使用NAS设备或者提供NFS(网络文件系统)共享服务的专用服务器。
典型的负载均衡群集结构拓扑图如下:

3、负载均衡的工作模式
关于群集的负载调度技术,可以基于IP,端口,内容等进行分发,其中基于IP的负载调度室效率最高的。基于IP的负载均衡中,常见的有地址转换,IP隧道,直接路由这三种工作模式。
地址转换:简称NAT模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是个节点回应客户机的访问出口,服务器节点使用私有IP地址,与负载均衡调度器位于同一个物理网络,安全性要优于其他两种方式。
IP隧道:简称TUN模式,采用开放式的网络结构,负载调度器仅作为客户机的入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负调度器。服务器节点分散在互联网的不同位置,具有独立的公网IP地址,通常专用IP隧道与负载调度器相互通信。
直接路由:简称DR模式,采用半开放式的网络结构,与TUN模式的结构类似,但个节点并不是分散在各地,而是与调度器位于同一个物理网络。负载调度器与个节点服务器通过本地网络连接,不需要建立专用的IP隧道。

二、LVS虚拟服务器概述
Linux Virtual Server是针对Linux内核开发的一个负载均衡项目,LVS现在已经成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。
1、LVS的负载调度算法
轮询(rr):将收到的访问请求按照顺序轮流分配给群集中的各节点,均等地对待每一台服务器,而不管服务器实际的连接数和系统负载。
加权轮询(wrr):根据真实服务器的处理能力轮流分配收到的访问请求,调度器可以自动查询各节点的负载情况,并动态调整其权重。
最少连接(lc):根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。
加权最少连接(wlc):在服务节点的性能差异较大的情况下,可以为真实服务器自动调整权重,权重较高的节点将承载更大比例的活动连接负载。
2、加载LVS内核模块,安装ipvsadm管理工具
ipvsadm是在负载调度器上使用的LVS群集管理工具,通过调用ip_vs模块来添加,删除服务器节点,以及查看群集的运行状态。
[root@localhost /]#modprobe ip_vs
[root@localhost /]#rpm -ivh /media/Packages/ipvsadm-1.25-9.e16.i686.rpm

3、使用ipvsadm工具管理LVS群集
LVS群集的管理工作主要包括:创建虚拟服务器,添加服务器节点,查看群集节点状态,删除服务器节点保存负载分配策略。
1)创建虚拟服务器
若群集的VIP地址为172.16.16.172,针对TCP的80端口提供负载分流服务,使用调度算法为轮询,则命令语法如下。对于负载均衡调度器来说,VIP必须是本机(调度器)实际以启用的IP地址。
[root@localhost /]#ipvsadmin -A -t 172.16.16.172:80 -s rr

上述操作中,选项“-A”表示添加虚拟服务器,“-t”用来指定VIP地址及TCP端口,“-s”用来指定负载调度算法——轮询(rr),加权轮询(wrr),最少连接(lc),加权最少连接(wlc)。
2)添加服务器节点
为虚拟服务器172.16.16.172添加四个服务器节点,IP地址依次为192.168.7.21-192.168.7.24,对应的ipvsadm命令语法如下。若希望使用保持连接,可以使用“-p 60”参数,其中60为60秒。
[root@localhost /]#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.21:80 -m -w 1
[root@localhost /]#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.22:80 -m -w 1
[root@localhost /]#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.23:80 -m -w 1
[root@localhost /]#ipvsadmin -a -t 172.16.16.172:80 -r 192.168.7.24:80 -m -w 1
上述操作中,选项“-a”表示添加真实服务器,“-t”用来指定VIP地址及TCP端口,“-r”用来指定RIP地址及TCP端口,“-m”表示使用NAT群集模式(-g DR模式,-i TUN模式),“-w”用来设置权重(权重为0时表示暂停节点)
3)查看群集节点状态
结合选项“-L”可以列表查看LVS虚拟服务器,可以指定只查看某一个VIP地址,结合选项“-n”将以数字形式显示地址,端口等信息。
[root@localhost /]#ipvsadm -L -n //查看节点状态
[root@localhost /]#ipvsadm -Lnc //查看负载连接情况

4)删除服务器节点
需要删除服务器池中某一个节点时,使用选项“-d”。执行删除操作必须指定目标对象,包括节点地址,虚拟IP地址。如果需要删除整个虚拟服务器时,使用选项“-D”并指定虚拟IP地址即可,无需指定节点。
[root@localhost /]#ipvsadm -d -r 192.168.7.24:80 -t 172.16.16.172:80
[root@localhost /]#ipvsadm -D -t 172.16.16.172:80 //删除整个虚拟服务器

5)保存负载分配策略
使用导出/导入工具ipvsadm-save/ipvsadm-restore可以保存,恢复LVS策略,操作方法类似于iptables规则的导入/出 。
[root@localhost /]#ipvsadm-save > /etc/sysconfig/ipvsadm //保存策略
[root@localhost /]#service ipvsadm stop //停止服务(清楚策略)
[root@localhost /]#service ipvsadm start //启动服务(加载保存的策略)

三、配置NFS共享存储服务
NFS是一种基于TCP/IP传输的网络文件系统协议,最初由SUN公司开发。
1、使用NFS发布共享资源
NFS服务的实现依赖于RPC(远程过程调用)机制,以完成远程到本地的映射过程。在RHEL 6系统中,需要安装nfs-utils和rpcbind软件包来提供NFS共享服务,前者用NFS共享发布和访问,后者用于NPC支持。
1)安装nfs-utils和rpcbind软件包
[root@localhost /]#yum -y install nfs-utils rpcbind
[root@localhost /]#chkconfig nfs on
[root@localhost /]#chkconfig rpcbind on

2)设置共享目录
NFS的配置文件为“/etc/exports”,文件内容默认为空(无任何共享)。在exports文件中设置共享资源时,记录格式为“目录文件” 客户机地址(权限选项)。
[root@localhost /]#vim /etc/exports
/var/www/html 192.168.7.0/24(rw,sync,no_root_squash)

其中客户机地址可以是主机名,IP地址,网段地址,允许使用*,?等通配符;权限选项中rw表示读写,sync表示同步写入,no_root_squash表示客户机以root身份登录时将root权限作为nfsnobody用户降权对待。当需要将同一个目录共享给不同的客户机,且分配不同的权限时,只需要分隔指定多个“客户机(权限选项)”即可。
[root@localhost /]#vim /etc/exports
/var/www/html 192.168.7.1(ro) 192.168.7.10(rw)
3)启动NFS共享服务程序
[root@localhost /]#service rpcbind start
[root@localhost /]#service nfs start
[root@localhost /]#netstat -anpt | grep rpcbind

4)查看本机发布的NFS共享目录
[root@localhost /]#showmount -e

2、在客户机上访问NFS共享资源
NFS协议的目标是提供一种网络文件系统,因此对NFS共享的访问方式也使用mount命令来进行挂载,对应的文件系统内型为NFS。
1)安装rpcbind软件包,并启用rpcbind服务
若要正常访问NFS共享资源,客户机中也需要安装rpcbind软件包,并启用rpcbind系统服务;另外,为了是showmount查询工具,建议将nfs-utils软件包也一起装上。
[root@localhost /]#yum -y install rpcbind nfs-utils
[root@localhost /]#chkconfig rpcbind on
[root@localhost /]#service rpcbind start

2)手动挂载NFS目录
[root@localhost /]#mount 192.168.7.250:/var/www/html /var/www/html

完成挂载以后,只要访问客户机的“/var/www/html”文件夹,实际上就相当于访问NFS服务器上的“/var/www/html”文件夹。
3)fstab自动挂载设置
修改“/etc/fstab”配置文件,加入NFS共享目录的挂载设置,注意文件系统类型设为nfs,挂载参数建议添加netdev;若添加soft,intr参数可以实现软挂载,允许在网络中断时放弃挂载。这样客户机就可以在每次开机后自动挂载NFS共享资源了。
[root@localhost /]#vim /etc/fstab
......//省略部分内容
192.168.7.250:/var/www/html nfs /var/www/html defaults,_netdev 0 0

四、构建LVS负载均衡群集实例
1、案例1:构建NAT模式的负载均衡群集
在NAT模式的群集中,LVS负载调度器是所有节点访问Internet的网关服务器,其外网地址172.16.16.172同时也作为整个群集的VIP地址。LVS调度器具有两块网卡,分别连接内外网络。
对于LVS负载调度器来说,需要使用iptables为出站配置SNAT转发规则,以便节点服务器能够访问Internet。所有的节点服务器,共享存储均位于私有网络内,其默认网关设为LVS负载调度器的内外地址(192.168.7.254).
1)配置SNAT转发规则
[root@localhost /]#vim /etc/sysctl.conf
......//省略部分内容
net.ipv4.ip_forward = 1
[root@localhost /]#sysctl -p
[root@localhost /]#iptables -t nat -A POSTROUTING -s 192.168.7.0/24 -o eth0 -j SNAT --to-source 172.16.16.172

2)配置负载分配策略
[root@localhost /]#service ipvsadm stop //清楚原有策略
[root@localhost /]#ipvsadm -A -t 172.16.16.172:80 -s rr
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.21:80 -m -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.22:80 -m -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.23:80 -m -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.24:80 -m -w 1
[root@localhost /]#service ipvsadm save //保存策略
[root@localhost /]#chkconfig ipvsadm on

3)配置节点服务器
所有节点服务器均使用相同的配置,包括httpd服务端口 ,网站文档内容。实际上各节点的网站文档可存放在共享存储设备上,从而免去同步过程。
[root@localhost /]#yum -y install httpd
[root@localhost /]#mount 192.168.7.250:/var/www/html /var/www/html
[root@localhost /]#vim /var/www/html/index.html
负载均衡测试网页!!!
[root@localhost /]#service httpd start
[root@localhost /]#chkcofnig httpd on

4)测试LVS群集
安排多台测试机,从Internet中直接访问http://172.16.16.172将能够看到由真实服务器提供的网页内容——如果各节点的网页不同,则不同客户机看到的网页也可能不以样。可以使用ipvsadm工具查看当前连接负载的情况。(在调度器上进行查询)
[root@localhost /]#ipvsadm -Ln

2、案例2:构建DR模式的负载均衡群集
在DR模式的群集中,LVS负载调度器作为群集的访问入口,但不作为网关使用;服务器池中的所有节点都各自接入Internet,发送给客户机的WEB响应数据包不需要经过LVS负载调度器。
这种方式入站,出站访问数据被分别处理,因此LVS负载调度器和所有的节点服务器都需要配置有VIP地址,以便响应对整个群集的访问。考虑到数据存储的安全性,共享存储设备会放在内部的专用网络中。
1)配置调度器的虚拟IP地址(VIP)
采用虚接口的方式(eth0:0),为网卡eth0绑定VIP地址,以便响应群集访问。配置结果为eht0 172.16.16.173/24,eth0:0 172.16.16.172/24
[root@localhost /]#cd /etc/sysconfig/network-scripts/
[root@localhost network-scripts]#cp ifcfg-eth0 ifcfg-eth0:0
[root@localhost network-scripts]#vim ifcfg-eth0;0
......//省略部分内容
DEVICE=eht0:0
ONBOOT=yes
IPADDR=172.16.16.172
NETMASK=255.255.255.0
[root@localhost network-scripts]#service network restart
2)调整/proc响应参数
对于DR群集模式来说,由于LVS负载调度器和各节点需要公用VIP地址,为了避免网络内的ARP解析出现异常,应关闭Linux内核的重定向参数响应。
[root@localhost /]#vim /etc/sysctl.conf
......//省略部分内容
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.eth0.send_redirects = 0
[root@localhost /]#sysctl -p

3)配置负载分配策略
[root@localhost /]#service ipvsadm stop
[root@localhost /]#ipvsadm -A -t 172.16.16.172:80 -s rr
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 172.16.16.177:80 -g -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 172.16.16.178:80 -g -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 172.16.16.179:80 -g -w 1
[root@localhost /]#ipvsadm -a -t 172.16.16.172:80 -r 172.16.16.180:80 -g -w 1
[root@localhost /]#service ipvsadm save
[root@localhost /]#chkconfig ipvsadm on

4)配置节点服务器的虚拟IP地址(VIP)
在每个节点服务器,同样需要具有VIP地址172.16.16.172,但此地址仅用作发送WEB响应数据包的源地址,并不需要监听客户机的访问请求(访问请求有调度器监听)。因此使用虚接口lo:0来承载VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地以避免通信絮乱。 [root@localhost /]#cd /etc/sysconfig/network-scripts/
[root@localhost network-scripts]#cp ifcfg-lo ifcfg-lo:0
[root@localhost network-scripts]#vim ifcfg-lo:0
......//省略部分内容
DEVICE=lo:0
ONBOOT=yes
IPADDR=172.16.16.172
NETMASK=255.255.255.255
[root@localhost network-scripts]#service network restart
[root@localhost network-scripts]#vim /etc/rc.local
......//省略部分内容
/sbin/route add -host 172.16.16.172 dev lo:0
[root@localhost network-scripts]#route add -host 172.16.16.172 dev lo:0
5)调整/proc响应参数
[root@localhost /]#vim /etc/sysctl.conf
......//省略部分内容
net.ipv4.conf.all.arp_ignore = 1
net.ipve.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipve.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipve.conf.lo.arp_announce = 2
[root@localhost /]#sysctl -p

6)配置节点服务器
[root@localhost /]#yum -y install httpd
[root@localhost /]#mount 192.168.7.250:/var/www/html /var/www/html
[root@localhost /]#vim /var/www/html/index.html
负载均衡测试网页!!!
[root@localhost /]#service httpd start
[root@localhost /]#chkcofnig httpd on

7)测试LVS群集
安排多台测试机,从Internet中直接访问http://172.16.16.172将能够看到由真实服务器提供的网页内容——如果各节点的网页不同,则不同客户机看到的网页也可能不以样。可以使用ipvsadm工具查看当前连接负载的情况。(在调度器上进行查询)
[root@localhost /]#ipvsadm -Ln

本文出自 “邓奇的Blog” 博客,请务必保留此出处http://dengqi.blog.51cto.com/5685776/1307880


查看lvs有没有启动 linux

查看lvs有没有启动 linux

1 .LVS系统介绍
今计算机技术已进入以网络为中心的计算时期。由于客户/服务器模型的简单性、易管理性和易维护性,客户/服务器计算模式在网上被大量采用。在九十年代中期,万维网(World Wide Web)的出现以其简单操作方式将图文并茂的网上信息带给普通大众,Web也正在从一种内容发送机制成为一种服务平台,大量的服务和应用(如新闻服务、网上银行、电子商务等)都是围绕着Web进行。这促进Internet用户剧烈增长和Internet流量爆炸式地增长,图1显示了1995至2000年与 Internet连接主机数的变化情况[1],可见增长趋势较以往更迅猛。


Linux如何在系统启动时自动加载模块

Linux如何在系统启动时自动加载模块

为搞清楚如何在系统启动时自动加载模块,搜索了好久,网上有很多人提出这个问题,但都没有正确的答案。大家的回答都没有讲到点子上,无非是围绕modprobe.conf、modprobe讲来讲去的,要不就是针对特定问题尝试不同的方法。有的还建议把modprobe modulename写入rc.local,却不曾想rc.local的执行被放在整个启动顺序的很后面,而启动init.d下面定义的服务却在rc.local前面,那么如果某个服务要用这个模块,就不行了。 在测试LVS时,因为我的Fedora7的Kernel(2.6.21-1)缺省没有加载ip_vs模块,而内核中已经包含编译好的IPVS相关的模块了,放在:/lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/下面,有: /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_dh.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_ftp.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_lblc.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_lblcr.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_lc.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_nq.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_rr.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_sed.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_sh.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_wlc.ko /lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/ip_vs_wrr.ko 其中ip_vs.ko是IPVS的基本模块,不加载IPVS就不能工作(运行ipvsadm会报错的),而其他的都是IPVS的调度算法或特定协议的辅助模块,需要时则须加载。 要了解如何在系统启动时自动加载模块(Automatically load kernel modules),就得先了解系统是如何启动的,启动的过程中按什么顺序做了什么,怎么做的,这些启动操作都有那些文件和脚本控制。整个开机流程是: (1) 载入BIOS的硬件信息,并取得第一个开机装置的代号 (2)读取第一个开机装置的MBR的boot Loader (grub)的开机信息 (3)载入OS Kernel信息,解压Kernel,尝试驱动硬件 (4) Kernel执行init程序并获得run-lebel信息(如3或5) (5) init执行/etc/rc.d/rc.sysinit (6)启动内核外挂模块(/etc/modprobe.conf) (7) init执行run-level的各种Scripts,启动服务 (8) init执行/etc/rc.d/rc.local (9)执行/bin/login,等待用户Login (10)Login后进入Shell看来正确的方式是把需要加载的模块放在(5)或(6),我修改了/etc/rc.d/rc.sysinit就成功加载了。初步尝试在rc.sysinit最后增加 modprobe.conf ip_vs,重启后lsmod | grep ip_vs,发现成功自动加载了。于是仿效rc.sysinit中其他模块的加载方法,扩展改脚本文件,在最后增加下来一段: # load LVS IPVS modules if [ -d /lib/modules/$unamer/kernel/net/ipv4/ipvs ]; then for module in /lib/modules/$unamer/kernel/net/ipv4/ipvs/* ; do module=${module##*/} module=${module%.ko} modprobe $module >/dev/null 2>&1 done fi就把/lib/modules/2.6.21-1.3194.fc7/kernel/net/ipv4/ipvs/下的所有模块都自动加载。


centos6.5 怎么测试keepalived是否安装成功

centos6.5 怎么测试keepalived是否安装成功

安装成功keepalived后,在/etc目录下会生成keepalived目录,里面有个keepalived.conf配置文件。 在keepalived.conf配置文件中,找到virtual_ipaddress字段,随便设置一个同网段的IP地址: virtual_ipaddress { #设置lvs vip 192.168.1.1}保存之后运行keepalived,然后查看日志: tail -f /var/log/messages看到下面说明master设置成功: Aug 29 21:59:29 localhost Keepalived_vrrp[13067]: VRRP_Instance(loadbalance) Transition to MASTER STATEAug 29 21:59:34 localhost Keepalived_vrrp[13067]: VRRP_Instance(loadbalance) Entering MASTER STATEAug 29 21:59:34 localhost Keepalived_vrrp[13067]: VRRP_Instance(loadbalance) setting protocol VIPs.Aug 29 21:59:34 localhost Keepalived_vrrp[13067]: VRRP_Instance(loadbalance) Sending gratuitous ARPs on eth0 for 192.168.1.1这时候再查看下ip,如果vip出现了,那么keepalived基本没问题了: ip addrinet 192.168.1.1/32 scope global eth0 来源:“成航先森”博客

如何把keepalived添加到centos开机启动

如何把keepalived添加到centos开机启动

路径启动,默认在/usr/local/nginx/sbin/nginx 启动:/usr/local/nginx/sbin/nginx 平滑重启:/usr/local/nginx/sbin/nginx -s reload 停止:/usr/local/nginx/sbin/nginx -s stop 重启:/usr/local/nginx/sbin/nginx -s restart


:centos7 用什么版本的keepalived

:centos7 用什么版本的keepalived

一、环境介绍
1、这是我CentOS的版本,CentOS7.1,主备都为该版本
[root@localhost ~]# cat /etc/RedHat-release
CentOS Linux release 7.1.1503 (Core)
[root@localhost ~]# cat /proc/version
Linux version 3.10.0-229.el7.x86_64 (builder@kbuilder.dev.centos.org) (gcc version 4.8.2 20140120 (Red Hat 4.8.2-16) (GCC) ) #1 SMP Fri Mar 6 11:36:42 UTC 2015
2、修改主机名并修改host
[root@localhost ~]# hostnamectl set-hostname node-01
[root@localhost ~]# vi /etc/hosts
127.0.0.1node-01在127后面添加node-01

二、拓扑图的规划:
A)
|------------IP地址-----------|----------|------软件------|----------|-状态-|
|172.21.4.51(VIP:172.21.4.44 )|----------|keepalived+nginx|----------|Master|
|172.21.4.52(VIP:172.21.4.44 )|----------|keepalived+nginx|----------|Backup|
|---------172.21.4.91---------|----------|------IIS-------|----------|-Web1-|
|---------172.21.4.91---------|----------|------IIS-------|----------|-Web2-|
B)
Internet--
|
=============
| ISP Router|
=============
| |
| |---- Web1 (172.21.4.91)
|-HA-|eth0--> 172.21.4.51 |
| \ /
| \ /
| ===VIP(172.21.4.44)===
| / \
| / \
|-HA-|eth0--> 172.21.4.52 |
|---- Web2 (172.21.4.92)
|
注:在网关上已针对VIP(172.21.4.44)作了80端口映射。
此架构需考虑的问题:
1、Master运行,则Master占有vip且Nginx能够正常服务;
2、Master挂了,则Backup抢占vip且Nginx能够正常服务;
3、任何一台前端nginx服务挂了,则vip资源转移到另一台服务器上,并发送提醒邮件;
4、nginx需要检测后端服务器的健康状态(由于应用是挂在默认网站下的虚拟目录,且无法更改,必须能够对虚拟目录进行健康检查)
5、由于应用需要Session保持,但由于没有做Session共享,实际服务器角色转换时,应用会受到一定的影响。


lvs的dr与nat模式有什么区别

lvs的dr与nat模式有什么区别

LVS共有三种模式,优缺点比较如下:

NAT模式
优点:集群中的物理服务器可以使用任何支持TCP/IP操作系统,物理服务器可以分配Internet的保留私有地址,只有负载均衡器需要一个合法的IP地址。
不足:扩展性有限。当服务器节点(普通PC服务器)数据增长到20个或更多时,负载均衡器将成为整个系统的瓶颈,因为所有的请求包和应答包都需要经过负载均衡器再生。假使TCP包的平均长度是536字节的话,平均包再生延迟时间大约为60us(在Pentium处理器上计算的,采用更快的处理器将使得这个延迟时间变短),负载均衡器的最大容许能力为8.93M/s,假定每台物理服务器的平台容许能力为400K/s来计算,负责均衡器能为22台物理服务器计算。

TUN模式
我们发现,许多Internet服务(例如WEB服务器)的请求包很短小,而应答包通常很大。
优点:负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户。所以,负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台的物理服务器服务,负载均衡器不再是系统的瓶颈。使用VS-TUN方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使得整个Virtual Server能达到1G的吞吐量。
不足:但是,这种方式需要所有的服务器支持”IP Tunneling”(IP Encapsulation)协议,我仅在Linux系统上实现了这个,如果你能让其它操作系统支持,还在探索之中。

DR模式
优点:和VS-TUN一样,负载均衡器也只是分发请求,应答包通过单独的路由方法返回给客户端。与VS-TUN相比,VS-DR这种实现方式不需要隧道结构,因此可以使用大多数操作系统做为物理服务器,其中包括:Linux 2.0.36、2.2.9、2.2.10、2.2.12;Solaris 2.5.1、2.6、2.7;FreeBSD 3.1、3.2、3.3;NT4.0无需打补丁;IRIX 6.5;HPUX11等。
不足:要求负载均衡器的网卡必须与物理网卡在一个物理段上


买车有几种方法

优孕有几种方法?

选择最佳的受孕时机,也是生育一个身心健康的孩子不可缺少的条件之一。婚后经过一段时间,双方在生活习惯、爱好等方面都彼此适应了,感情也更加深厚甜蜜,如果正值女方最佳生育年龄,那么小宝宝就可以在夫妇安排下孕育了。为了确保受孕成功,应从以下几个方面加以注意。


从新婚起测量基础体温


在有条件情况下,每天清晨起床前.女方应先用体温计测量一下基础体温。在坚持每天测量的基础上掌握体温下降和复升的时间,以确定排卵日期。


基础体温测量方法如下:


①早上醒后,在身体不做任何动作的情况下,用温度计测出口腔温度。


②将测出的体温数标在基础体温图表上。


③将一月的体温数用线连接起来,形成曲线。由此曲线可以判断出是否正值排卵期。


④每日要在同一时间进行测量。


女性的基础体温是对应月经周期变化的,这是因为孕激素的作用。孕激素的分泌活跃时,基础体温上升;孕激素不分泌时,则出现低体温;正常情况下,从月经开始那一天,到排卵的那一天,因孕激素水平较低,所以一直处于低体温,一般为36.2℃~36.5℃;排卵后,卵泡分泌孕激素,基础体温猛然上升到高温段,一般在36.8℃左右。


可以把从低温段向高温段移动的几日,视为排卵日,这期间同房.容易受孕。


排卵期前应减少房事


在排卵期前应减少同房的次数,使男方养精蓄锐,以产生足够数量的高质量的精子。


注意男女衣着


在计划受孕的日期以前.男女双方均不宜穿紧身裤,如尼龙裤、牛仔裤等。因为这些织物透气性差,容易给病菌形成滋生地,使女方阴道炎增多,直接影响受孕成功。男方则使睾丸压向腹部,增加了睾丸的温度,使生精功能减退。在这种情况下受孕,畸形儿或有先天性缺陷的婴儿出生率就会增高。


戒酗酒


大量饮酒后受孕,胎儿畸形、智力低下的较多。因此特别是受孕前应戒酗酒。


心理因素的影晌


夜深人静,居室清洁.心境恬和。恩爱缠绵之时,则是最好的受孕时机,所以,只要夫妻在思维、语言、行动、情感等方面都达到高度协调一致的时候同房怀孕,出生的孩子就会集中双亲的身体、容貌等方面的优点。事实证明,智力较高儿童的父母常常是文明的彼此情投意合、体贴关心的,在这种情况下受孕的胎儿,质量当然不会低了。


生物钟优生法


每一对父母都希望自己的子女有超人的智力、健壮的体魄和良好的情绪,或者希望子女能够继承自己的智力、体质和情绪,父母的这种愿望是否能得到满足呢?人体的生物钟将发挥一定的作用。


生物钟又叫生物节律或生物节奏。它是生物体随时间(昼夜、四季等)做同期性变化的一种生理现象。这种生理现象是由环境作用于生物种族,在亿万年的变化过程中逐步形成的,它受中枢神经的制约。人的情绪、体力和智力,有着周期性波动节律,在每一周期中,高潮和低潮按一定规律交替出现。


人的情绪生物钟,周期为28天;体力生物钟,周期为23天,智力生物钟,周期为33天。三种生物钟密切相关,互相影响。当三者都处于同期线上时,人体处于最佳状态,如能在夫妻双方的三条周期线均处于高潮时受孕,则孩子很有可能在情绪、体力和智力三方面发展都较好。


那么,人体的生物钟是怎样运行的呢?如何寻找各种生物节律呢?


请按以下方法绘制人体智力钟模型。以水平线为直径画圆,将圆均分为33分(体力钟33份,情绪钟28份),以垂直和水平两线交点为起点,按顺时钟方向依次为1、2、3、……33,每份表示1天。水平线是生物节律基础线,(又称基线或基准线),描述的是人的智力基础(体力钟、情绪钟分别描述体力、情绪基础),垂直线上的刻度数字、表示某一天的人体生物节律值。其变化压问为±100,即从0→100,又从100→,0,然后,从0→100,又从110→0。与基础线对应的那天,是危象日或临界日。智力钟中,第1、第33,第17天是临界日(体力钟中,第1、第23、第12天是临界日;情绪钟中第1、第14、第28、第15天是临界日)。基础线上下的1~3天是生物钟的临界期。临界期以上是高潮期,以下是低潮期。生物钟从人出生第一天启动,每天走一格,循环往复。


除查看生物钟模型外,还可用数字公式来计算人体生物节律值。


智力,i=100Sin2π33t;体力,r=Sin2π23t;情绪,q=100Sin2π28t;


公式中的“t”是某人某天出生年月日到计算日的总天数。所以,要计算某天的生物节律值,一是要计算出生日到计算日的总天数,二是要计算计算日的生物节律值。


假设,丈夫生于1971年10月5日,妻子生于1974年4月20日,想要知道2000年9月8日是否是两人三种生物钟的高潮日。首先,分别计算夫妻二人从出生日到计算日的总天数。365×(2000-1971)-(10月5日-9月8日)+(2000-1971)÷4(这是闰年的天数,商数取整,余数不计)=10565天+妻子的算式为:+365天x2000-1974)


(9月8日-4月20日)+(2000


1394)÷4=9490天+141天+6天=9637天


其次,分别计算夫妻二人计算日的生物节律值。


①拨钟法


分别用23、28、33去除生日到计算日的总天数,得出:


丈夫:10565÷23=459………8


10565÷28=379………………9


10565÷33=320…………5


妻子:1637÷23=419


9637÷28=344…………………5


9637÷33=292………………1


之后,分别把除得的余数在相应的生物钟模型中找到对应日的节律值,即得二人计算日均处于高潮期,妻子的情绪节律在计算日处于高潮期,而体力和智力的生物律则处于临界期。


②公式计算法


将二人出生日到计算日的总天数分别代入r、q、i的公式中,可行其相应的体力、情绪、智力生物节律值,从而找出二个所处的生物期。


③图象法


根据生日到计算日的总天数分别除以23、28、33后所得的余数,在相应的生物节律图象上打出“对应日”的函数值,余数是几。就找第几天。从而找出夫妻二人在计算日体力、情绪和智力所处的生物期。


当然,要想找到夫妻二人的三种生物钟均处于高潮期的,那是非常困难的。所谓选择最佳生物钟优生期,也就是夫妻二人的三种生物钟可能多地处于高潮期,少处于低潮期而已。例如.六条曲线有4条处于高潮则可选为受孕月,而仅有1~2条处于高潮期,而有4~5条处于低潮期则尽量不选为受孕日。


出生月份与优生


科学研究表明,人的出生月份与其将来可能患的某种疾病存在着一定的关系。


例如,对3万名精神分裂症病人的调查发现,他们出生的月份以1~2月最多,6~8月最少。这可能与怀孕3个月时,即胎儿大脑皮质发育关键时期正处于酷暑炎夏有关。


荷兰学者对2544名支气管哮喘患儿的调查发现,患儿出生于7~10月的最多,比其他月份出生的患儿多20%。也就是说,夏秋季出生的人易患支气管哮喘。


对2万名癌症病人的调查发现,病人中生于12月至次年3月者最多,生于6~7月者最少,即出生于夏季的孩子,其以后的癌症发病率可能较低。


这些结果表明,某些疾病的发生可能与胚胎期所受的季节性影响有关。


买车有几种方法

我国汽车贷款业务主要有以下五种途径。 1:通过各汽车品牌相关的金融公司进行贷款: 手续简便,直接在 4S 店委托办理即可。贷款 审核 门槛相对低一点。 年贷款利率大约在 9-11% 左右,利率略高。 2:通过与各品牌合作的银行进行贷款: 手续比较方便,利率较汽车金融公司更低 ,一般在 7%-10% 左右。 仅有中信银行、深发展银行等少数银行开展此业务,且并未与所有汽车品牌进行合作。 3:通过担保公司进行贷款: 可以为 个别没有金融公司和合作银行的小众品牌 客户提供 贷款。 除贷款利率、贷款额 3%-4% 的手续费以外,还要缴纳一定管理保证金和其它杂费。 费用较高,且手续复杂。 4:通过信用卡进行贷款: 由汽车厂家和银行合作推出,利息较低、甚至有“ 0 首付 0 利息 0 手续费”的优惠 活动。从费用上来讲,这是最“实惠”的贷款方式。 能够参与的车型非常有限(大多是厂家急于促销的中低档车型),且贷款人需持有该信用卡半年或一年以上且无不良信贷纪录。 5:个人直接向银行贷款: 受金融风险控制的影响,各商业银行几乎已不再 直接向个人提供 购车贷款业务。 希望帮到你!