系统集成论坛
标题:
CentOS 5上iSCSI+GFS共享存储的实现
[打印本页]
作者:
思考的牛
时间:
2011-12-10 15:03
标题:
CentOS 5上iSCSI+GFS共享存储的实现
一、安装
系统环境:CentOS release 5.5 – 2.6.18-194.el5xen
安装iscsi-target,存储目标端即存储端
在有共享磁盘的主机上安装iscsi-target
安装iscsi-initiator,存储服务端
在使用共享存储的主机上安装iscsi-initiator,所有GFS节点
安装global file system,全局文件系统
在使用共享存储的主机上安装gfs模块
gfs主要组件有,集群卷管理、锁管理、集群管理、集群配置管理、围栏和恢复。
在这里,假定有3台计算机,它们的IP分别是192.168.0.7 192.168.0.8 192.168.0.24
192.168.0.24 192.168.0.7上各有一块可用磁盘,作为共享磁盘
3台计算机都是GFS节点,即使用共享磁盘
在192.168.0.24上,安装配置iscsi-target,iscsi-initiator,gfs
在192.168.0.7上,安装配置iscsi-target,iscsi-initiator,gfs
在192.168.0.8上,安装配置iscsi-initiator,gfs
1、安装iscsi-target
#yum install scsi-target-utils
#yum install libibverbs-devel libibverbs librdmacm librdmacm-devel
2、安装iscsi-initiator
#yum install iscsi-initiator-utils
3、安装gfs
#yum install -y gfs2-utils cman kmod-gfs kmod-dlm cluster-snmp lvm2-cluster rgmanager
二、配置共享存储
配置iscsi-target
建立target device
配置iscsi-initiator
记录并登录target device
配置GFS共享
利用GFS实现文件共享和同步
1、配置iscsi-target
#/etc/init.d/tgtd start
在192.168.0.24新建分区(fdisk):/dev/sda9
#tgtadm --lld iscsi --op new --mode target --tid 1 -T iqn.2011-09.com.nfschina:nfs-storage24
添加一个新的iscsi-target:iqn.2011-09.com.nfschina:nfs-storage
--tid 目标id
--T 相当于—targetname 目标名
iqn(iSCSI Qualified Name)命名规则:
格式 意义 范例
yyyy-mm 年份-月份 2011-09
Reversed-domain-name 把域名反过来写,通常把公司域名反过来写 com.nfschina
identifier 识别字,通常注明这个存储空间的用途 nfs-storage
#tgtadm --lld iscsi --op new --mode logicalunit --tid 1 --lun 1 -b /dev/sda9
把磁盘分区添加到目标设备。
#tgtadm --lld iscsi - -op show - -mode target 查看目标设备
#tgtadm --lld --op bind –mode target –tid 1 -I initiator-ip
如果需要对所有initiator可存取,则将initiator-ip换成ALL
#tgtadm --lld iscsi --op bind --mode target --tid 1 -I 192.168.0.7
#tgtadm --lld iscsi --op bind --mode target --tid 1 -I ALL
使用相同方法,在192.168.0.7上配置iscsi-target,target名为 iqn.2011-09.com.nfschina:nfs-storage07
2、配置iscsi-initiator
3台计算机均安装配置iscsi-initiator
#/etc/init.d/iscsi start
启动iscsi模块
#iscsiadm -m discovery -t sendtargets -p 192.168.0.24
#iscsiadm -m discovery -t sendtargets -p 192.168.0.7
利用iscsiadm命令探测iscsi device
命令执行完成后,将在本地的记录设备信息:/var/lib/iscsi/nodes/iqn.2011-09.com.nfschina:rhcs-storage08/
下次启动iscsi时将会自动读取信息并登录到该设备,如需取消自动登录,则删掉对应文件夹
#iscsiadm -m node -T iqn.2011-09.com.nfschina:nfs-storage24 -p 192.168.0.24 -l
#iscsiadm -m node -T iqn.2011-09.com.nfschina:nfs-storage07 -p 192.168.0.7 -l
登录到target设备。
登录成功后,利用fdisk -l可以发现多了两个硬盘分区sdb,sdc,这就是iscsi共享的分区。
登出:#iscsiadm -m node -T iqn.2011-09.com.nfschina:nfs-storage -p target-ip -u
3、配置GFS
首先在3台计算机上的/etc/hosts文件末尾添加如下内容
192.168.0.24 gfs1
192.168.0.8 gfs2
192.168.0.7 gfs3
有几个GFS节点就添加几行,每个节点上都要添加
下面以配置gfs1节点为例
#echo \'\'initiatorAlias=gfs1\'\'>> /etc/iscsi/initiatorname.iscsi
指定initiator别名
创建配置文件:/etc/cluster/cluster.conf,添加如下内容
<?xml version=\"1.0\"?>
<cluster name=\"GFSCluster\" config_version=\"1\">
<clusternodes>
<clusternode name=\"gfs1\" votes=\"1\" nodeid=\"1\">
<fence>
<method name=\"single\">
<device name=\"node1\" nodename=\"gfs1\"/>
</method>
</fence>
</clusternode>
<clusternode name=\"gfs2\" votes=\"1\" nodeid=\"2\">
<fence>
<method name=\"single\">
<device name=\"node2\" nodename=\"gfs2\"/>
</method>
</fence>
</clusternode>
<clusternode name=\"gfs3\" votes=\"1\" nodeid=\"3\">
<fence>
<method name=\"single\">
<device name=\"node3\" nodename=\"gfs3\"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice name=\"node1\" agent=\"fence_manual\"/>
<fencedevice name=\"node2\" agent=\"fence_manual\"/>
<fencedevice name=\"node3\" agent=\"fence_manual\"/>
</fencedevices>
<rm>
<failoverdomains/>
<resources/>
</rm>
</cluster>
#/etc/init.d/gfs start
#/etc/init.d/gfs2 start
启用gfs服务。
#/etc/init.d/rgmanager start
启用集群管理。
#/etc/init.d/cman start
启用集群。
#/etc/init.d/clvm start
启用集群卷管理。
ps:以上至“3、配置GFS” 部分须在每个GFS节点(3台计算机)执行。
下面的配置内容任选一台计算机执行即可。
假定登录节点登录到taget设备后,本地主机多出了/dev/sdb /dev/sdc磁盘
#pvcreate -ff /dev/sdb 通过pvdisplay查看物理卷详情
#pvcreate -ff /dev/sdc
#vgcreate gfsvg /dev/sdb /dev/sdc 通过vgscan探测物理卷组
可以添加多个磁盘到组中 #vgcreate gfsvg /dev/sdb /dev/sdc /sdd
#vgdisplay
查看vg组信息,找到磁盘容量 Total PE 1126
#lvcreate -l 1126 -n gfs gfsvg
在组物理卷组gfsvg上建立逻辑卷gfs
#gfs_mkfs -p lock_dlm -t GFSCluster:gfs -j 3 /dev/gfsvg/gfs
-p后面跟gfs锁管理机制,lock_dlm锁实现了集群读写同步
-t后面是ClusterName:FSName 即/etc/cluster/cluster.conf中的集群名及要给格式化好的gfs分区名字
-j指定日志个数
最后的参数是要格式化的设备名,如新建的逻辑卷名
三、使用GFS共享
配置GFS后,可以在任一节点挂载使用共享卷
GFS支持动态扩容
由于GFS实现了读写同步,因此崩溃时数据已经保存到磁盘,恢复GFS服务即可
1、挂载GFS
#vim /etc/lvm/lvm.conf 修改下项
locking_type = 3
#lvscan
ACTIVE \'/dev/gfsvg/gfs\' [4.80 GB] inherit
#mount -t gfs /dev/gfsvg/gfs /mountpoint
使用#df -h检查gfs是否挂在成功
#vim /etc/lvm/lvm.conf
locking_type = 1
2、GFS扩容
例如,要将sdc磁盘加入到/dev/gfsvg/gfs共享
#pvcreate -ff /dev/sdd
#vgextend gfsvg /dev/sdd
#lvextend /dev/gfsvg/gfs /dev/sdd
#gfs_grow /dev/gfsvg/gfs
3、GFS恢复
iscsi-target配置是一次性的,重启tgtd或者主机断电重启后会失去所有配置。所以恢复GFS首先要
重新配置iscsi-target。
#/etc/init.d/gfs start
#/etc/init.d/gfs2 start
按顺序启动服务:
#/etc/init.d/rgmanager start
#/etc/init.d/cman start
#/etc/init.d/clvm start
#vim /etc/lvm/lvm.conf ##locking_type = 3
#lvscan
#mount /dev/gfsvg/gfs /mountpoint
#vim /etc/lvm/lvm.conf ##locking_type = 1
四、问题解答
1、不能挂载gfs模块
模块与内核版本不符,重新安装对应版本的gfs.
2、#lvscan
Skipping Cluster Volume group
修改/etc/lvm/lvm.conf locking_type = 3
3、#lvscan
inactive \'/dev/gfsvg/gfs\' [4.86 GB] inherit
#lvchange -ay /dev/gfsvg/gfs
4、启动cman服务时,不能启动fenced
集群中,fenced设备不能单独使用。
同时启动集群内超过半数的节点可以很快启动成功。
欢迎光临 系统集成论坛 (http://bbs.xtjc.com/)
Powered by Discuz! X3.1