软件RAID测试·二

一个逻辑卷组,物理卷是由四块硬盘组成的RAID-10,拿出了一部空间做了个逻辑卷,格式化成了XFS文件系统。
之后我顺手把虚拟机关掉了,没有按LinuxRaidWiki上的说法保存mdadm设置,但是当我再打开虚拟机的时候发现新建的md127安然无恙,看来在最近的某次版本变更里面,已经无需时刻保存设置了。
现在把lvol0的挂载点写到fstab里面去。先找到它的UUID。

# ls -lh /dev/mapper/
total 0
crw------- 1 root root 10, 236 Mar 24 18:08 control
lrwxrwxrwx 1 root root       7 Mar 24 18:08 ubuntu--vg-root -> ../dm-1
lrwxrwxrwx 1 root root       7 Mar 24 18:08 ubuntu--vg-swap_1 -> ../dm-2
lrwxrwxrwx 1 root root       7 Mar 24 18:08 vg0-lvol0 -> ../dm-0

可以看到,vg0-lvol0实际上是个软链。

# ls -lh /dev/disk/by-uuid/
total 0
lrwxrwxrwx 1 root root 10 Mar 24 18:08 5486a45b-5131-4f73-9710-8a0910bd91b5 -> ../../dm-2
lrwxrwxrwx 1 root root 10 Mar 24 18:08 c1f59da3-e4b9-49f4-8242-1ea9a0a7c2fe -> ../../dm-0
lrwxrwxrwx 1 root root 10 Mar 24 18:08 cdb31aba-081c-4bca-a110-37451fd5c1ac -> ../../sda1
lrwxrwxrwx 1 root root 10 Mar 24 18:08 eb44bd7c-f9bf-4123-987c-213bbe29eec0 -> ../../dm-1

其实也可以用blkid这个小程序直接查看UUID。
好,UUID拿到手,就顺手把它挂载到/home算了。略过编辑fstab过程。

# mount
(略)
/dev/mapper/vg0-lvol0 on /home type xfs (rw)

接下来,我们试试往已经建好的RAID-10里面再添加一块硬盘作为热备盘,新盘已经分好区了。

# mdadm --manage /dev/md127 --add /dev/sdf1
mdadm: added /dev/sdf1

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : active raid10 sdf1[4](S) sdc1[1] sdb1[0] sde1[3] sdd1[2]
      16766952 blocks super 1.2 4K chunks 2 near-copies [4/4] [UUUU]

显示”sdf1[4](S)”的意思,是指sdf1是这个阵列的第5块盘,属性是Spare,就是备份盘的意思。
现在,试试往已经建好的文件系统里面写入数据。

# pi 1000000 > /home/pi.txt

# md5sum /home/pi.txt
af3c72e86be578c48dca28044333294a  /home/pi.txt

然后让阵列里面的一块盘失效看看。

# mdadm --manage /dev/md127 --fail /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md127

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : active raid10 sdf1[4] sdc1[1] sdb1[0](F) sde1[3] sdd1[2]
      16766952 blocks super 1.2 4K chunks 2 near-copies [4/3] [_UUU]
      [=====>...............]  recovery = 25.2% (2117848/8383476) finish=0.6min speed=151274K/sec

可以看到sdb1这块盘已经被标记Fail,而原本被标记Spare的sdf1已经顶了上去,整个阵列正在进行重建,剩余时间0.6min。

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : active raid10 sdf1[4] sdc1[1] sdb1[0](F) sde1[3] sdd1[2]
      16766952 blocks super 1.2 4K chunks 2 near-copies [4/4] [UUUU]

重建已经完成。由于这块被标记Fail的盘实际上没坏,我们再把它加回去,作为Spare。

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : active raid10 sdb1[5](S) sdf1[4] sdc1[1] sde1[3] sdd1[2]
      16766952 blocks super 1.2 4K chunks 2 near-copies [4/4] [UUUU]

发表评论

电子邮件地址不会被公开。 必填项已用*标注