1. 首页
  2. IT资讯

软raid5 试验(rhel 5)

RAID5:至少需要3块磁盘,是raid0raid1的折中方案,采用奇偶校验的方式将数据拆分存储 在不同的磁盘中,并且其数据和对应的校验信息存储在不同的磁盘上,最多允许有一块磁盘故障,在更换了故障的磁盘后可以使用校验信息来恢复丢失的数据。
本实验中将使用4块磁盘创建软RAID5,其中一块磁盘做备份磁盘。软RAID,即操作系 统级的RAID
RAID分类
RAID 0存取速度最快 没有容错
RAID 1完全容错 成本高,硬盘使用率低.
RAID 3写入性能最好 没有多任务功能
RAID 4具备多任务及容错功能 Parity 磁盘驱动器造成性能瓶颈
RAID 5具备多任务及容错功能 写入时有overhead
RAID 0+1速度快、完全容错 成本高
1、 创 建以来建立RAID54个 分区。
[root@flyer ~]# fdisk /dev/sdb//创 建sdb磁盘分区
Device contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabelBuilding a new DOS disklabel. Changes will remain in memory only,until you decide to write them. After that, of course, the previouscontent won’t be recoverable.Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)Command (m for help): n #按n创建新分区Command actione extendedp primary partition (1-4) #输入p 选择创建主分区pPartition number (1-4): 1 #输入 1 创建第一个主分区First cylinder (1-130, default 1): #直接回车,选择分区开始柱面这里就从 1 开始Using default value 1Last cylinder or +size or +sizeM or +sizeK (1-102, default 130):Using default value 130Command (m for help): w #然后输入w写盘The partition table has been altered!Calling ioctl() to re-read partition table.Syncing disks.
[root@flyer ~]# fdisk /dev/sdc//创 建sdc磁盘分区 步骤与sdb一样
[root@flyer ~]# fdisk /dev/sdd//创 建sdd磁盘分区
[root@flyer ~]# fdisk /dev/sde//创 建sde磁盘分区
2、 查询总分区信息:

[root@flyer/]#fdisk -l

Disk /dev/sdb: 1073 MB, 1073741824 bytes 255 heads, 63 sectors/track, 130 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System /dev/sdb1 1 130 1044193+ 83 Linux

Disk /dev/sdc: 1073 MB, 1073741824 bytes 255 heads, 63 sectors/track, 130 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System /dev/sdc1 1 130 1044193+ 83 Linux

Disk /dev/sdd: 1073 MB, 1073741824 bytes 255 heads, 63 sectors/track, 130 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System /dev/sdd1 1 130 1044193+ 83 Linux

Disk /dev/sde:1073 MB, 1073741824 bytes255 heads, 63 sectors/track, 130 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System/dev/sde1 1 130 1044193+ 83 Linux

3、 创建软RAID5阵列。
[root@flyer ~]#mdadm –create /dev/md0 –level=5 –raid-devices=3 –spare-devices=1 /dev/sd[b-e]1
[root@flyer ~]#mdadm –create –verbose /dev/md0 –level=5 –raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1–spare-devices=1 /dev/sde1
简写
[root@flyer ~]#mdadm -C /dev/md0 -l 5 –n 3 -x 1 /dev/sd[b-e]1
-C创建后面接创建的RAID块设备名称
-l 5创建raid 5
-n 3用于创建raid5磁盘的 数量,即活动磁盘的数量,RAID5最 少为3
-x 1备用磁盘 的数量
4、 配置文件mdadm不采用/etc/mdadm.conf作为主要配置文件,它可以完全不依赖该文件 而不会影响阵列的正常工作。该配置文件的主要作用是方便跟踪软RAID的配置。对该配置文件进行配置是有好处的,但不是必须的。推荐对该文件进行配置。

格式:DEVICE 参与阵列的设备ARRAY 阵列的描述

通常可以这样来建立:

[root@flyer /]#echo DEVICE /dev/sd[b,c,d,e]1 >> /etc/mdadm.conf[root@flyer /]#mdadm –detail –scan >> /etc/mdadm.conf

结果如下:

[root@flyer /]# cat /etc/mdadm.confDEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1/dev/sde1ARRAY /dev/md0 level=raid5 num-devices=4 UUID=8ba81579:e20fb0e8:e040da0e:f0b3fec8 devices=/dev/sdb1,/dev/sdc1,/dev/sdd1,/dev/sde1

5、格 式化创建的RAID阵列并挂载。
[root@flyer /]# mkfs.ext3 /dev/md0//格 式化文件系统为ext3
[root@flyer /]#mkdir /mnt/mdadm //新建预挂载文件夹
[root@flyer /]# mount /dev/md0/mnt/mdadm //挂载文件系统
[root@flyer /]# mdadm –detail /dev/md0//查看详细信息

/dev/md0: Version : 00.90.01 Creation Time : Fri Aug 3 13:53:34 2007 Raid Level : raid5 Array Size : 2088192 (2039.25 MiB 2138.31 MB) Device Size : 1044096 (1019.63 MiB 1069.15 MB) Raid Devices : 3 Total Devices : 4 Preferred Minor : 0 Persistence : Superblock is persistent

Update Time : Fri Aug 3 13:54:02 2007 State : clean Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1

Layout : left-symmetric Chunk Size : 64K

Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sdb1 1 8 17 1 active sync /dev/sdc1 2 8 33 2 active sync /dev/sdd1 3 8 49 -1 spare /dev/sde1 UUID : e62a8ca6:2033f8a1:f333e527:78b0278a

Events : 0.2
NumberMajorMinorRaidDevice State
08170active sync/dev/sdb1//注意状态”active”
18181active sync/dev/sdc1
28192active sync/dev/sdd1
3820-spare/dev/sde1 //备用分区
[root@flyer /]#

6、若要开机自动挂载,请加入/etc/fstab中:

/dev/md0 /mnt/mdadm auto defaults 0 0

其实这样开机后是无法自动挂载的,因为在关机时就停止了软阵列
因为找md系统在读入fstab之前,如果找不到md,根本不可能写进fstab里面的

解决方法:在/ect/rc.local中加入 //在linux启动的最后阶段,系统会执行存于rc.local中的命令。
mdadm -As /dev/md0
mount -a

(注意)
在这里也是我遇到的最大的问题:
reboot后出现:Mounting local filesystems:mount:wrong fs type, bad option, bad superblock on /dev/hda1,or too many mounted file systems[FAILED] //挂载失败
或者 停止RAID后 都无法启动raid
这里我遇到两个错误:

1、mdadm: no such device: /dev/md0:

解决方法:需要重新创建软RAID5阵列

2、mdadm: md device /dev/md0 does not appear to be active.

启动指定的阵列,重新阵列装配 到系统中(–assemble)::

[root@flyer ~]# mdadm –assemble –scan /dev/md0 //配置文件错误/dev/mdadm.conf

mdadm: Unknown keyword devices

mdadm: no devices found for /dev/md0

[root@flyer ~]#vi /etc/mdadm.conf

DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 //应 该是device,这是一个细节,有好多网页教程里是都是devices

ARRAY /dev/md0 level=raid5 num-devices=3 UUID=e62a8ca6:2033f8a1:f333e527:78b0278a

[root@flyer ~]# mdadm -Av /dev/md0 /dev/sd[b,c,d]1 //指定设备启动可 以,没有问题

mdadm: looking for devices for /dev/md0

mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 0.

mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 1.

mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 2.

mdadm: added /dev/sdc1 to /dev/md0 as 1

mdadm: added /dev/sdd1 to /dev/md0 as 2

mdadm: added /dev/sdb1 to /dev/md0 as 0

mdadm: /dev/md0 has been started with 3 drives.

解决方法:修改/ect/mdadm.conf文件

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/27042095/viewspace-739785/,如需转载,请注明出处,否则将追究法律责任。

主题测试文章,只做测试使用。发布者:布吉卡,转转请注明出处:http://www.cxybcw.com/196050.html

联系我们

13687733322

在线咨询:点击这里给我发消息

邮件:1877088071@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

QR code