系统集成论坛

标题: GFS + LVM配置 [打印本页]

作者: 思考的牛    时间: 2013-4-11 17:07
标题: GFS + LVM配置
当多个主机需要对同一个硬盘分区进行读写,一般考虑使用NFS或GFS。不过NFS和GFS的层次是不一样的,NFS类似于Windows下网络邻居那样的共享服务,而GFS是一种文件系统(如常用文件系统ext3)。挂载了GFS文件系统的主机,可以通过NFS把挂载的内容再共享出去。由于这种先天的原因,NFS在性能上比GFS要差很多(NFS用做www服务的集群共享存储方式简直是跑不动的)

GFS只能用在集群环境,需要在已经配置好集群信息的情况下,才能格式化,格式化后的分区也只能给该集群的节点使用。

因此GFS的建立过程分两大步:

1.建立一个集群(这里叫mycluster),让cman能跑起来
2.将共享存储设备格式化为gfs文件系统。

在2之前,1必须已经是可用,即
service cman start 能跑

下面是步骤2:
在使用共享存储的机器上:
运行iSCSI,发现并登陆,假设登陆后新增/dev/sdb1, 大小1G。将建立一个叫myvg的物理卷组,在卷组中划一个mylv逻辑卷组
安装clvm等必要包及gfs驱动
yum install -y  kmod-gfs lvm2-cluster gfs-utils
lvmconf  --enable-cluster
service clvmd start
service gfs start

下面的操作只需要在集群中一台机器上执行。
pvcreate /dev/sdb1
vgcreate myvg /dev/sdb1
lvcreate -L 1024M -n mylv myvg
mkfs.gfs -p lock_dlm -t mycluster:gfs -j 2 /dev/myvg/mylv
  -p 文件锁协议,只能写lock_dlm
  -t 集群名:gfs
  -j 后面的2是指能同时挂载、读写此硬盘的节点个数。gfs为每个节点分配一个日志,如果只有2个日志,则不能被超过3个节点同时使用。

至此,/dev/myvg/mylv 就可供mycluster集群中的机器挂载
mount –t gfs /dev/myvg/mylv /mnt


扩容与普通的lvm类似,但是多了寻找iSCSI硬盘,以及刷新gfs信息的步骤:

1.发现新iscsi并登陆
2.pvcreate /dev/sdb2
  vgextend myvg /dev/sdb2
  lvextend -L 300M /dev/myvg/mylv
3.mount  /dev/myvg/mylv /mnt   (刷新)
  gfs2_grow /mnt




欢迎光临 系统集成论坛 (http://bbs.xtjc.com/) Powered by Discuz! X3.1