raid5两块raid5硬盘自动重建指示灯Missing了,怎样重建不丢失数据呢?能不能详细点,谢谢!

Ctrl+H 浪潮Raid配置文档 - 张冲andy - 博客园
随笔 - 599, 文章 - 0, 评论 - 17, 引用 - 0
本手册适用于LSI芯片Raid卡
包括但不限于Inspur
Raid卡、LSI 61/9271 等Raid卡。
不同型号的Raid卡在某些功能上的支持性不同(例如Inspur2008 Raid卡需要有授权才支持Raid5),具体因您的配置而定。
Raid配置与管理
服务器开机自检到浪潮logo画面后,下一步就会进入Raid卡自检过程,此时显示器上会出现Ctrl -H提示,如下图:
按下Ctrl -H组合键后,自检完成就会进入Raid卡配置界面,如下图。在这里可以看到Raid卡的型号和Firmware固件版本,点击【Start】按钮进入Raid卡主页。
Raid卡首页叫作WebBIOS,如下图。左侧是功能菜单,右侧可以看到所有物理磁盘,本例安装了4块500G硬盘,后面所有的配置都可以在这里完成!
Raid0配置方法
Raid0的配置过程与Raid1大致相同,唯一不同是在选择Raid级别这一步选择Raid0即可。
具体步骤请参考下一节
友情提示:Raid0虽然可以大幅提高读写性能,但是有数据丢失风险,请您慎重考虑!
Raid1配置方法
在WebBIOS主页点击【Configuration Wizard】,打开配置向导
选择【Add Configuration】,点击【Next】下一步
选择【Manual Configuration】,点击【Next】下一步
左侧方框内可以看到所有未使用的硬盘。因为要做Raid1,我们选择前两块,然后点击下方的【Add to Array】将其加入到右侧方框内。
点击【Accept DG】,创建磁盘组
点击【Next】下一步
点击【Add to SPAN】,将刚才创建好的磁盘组加入到右侧方框内
点击【Next】下一步
阵列参数配置:第一个参数“Raid Level”选择Raid1,其余保持默认
最后一个参数“Select Size”输入阵列容量大小,最大值可参考右侧绿字提示(其中R0代表做Raid0最大容量,R1代表做Raid1最大容量),完成后点击【Accept】
弹出的任何提示均选择【yes】
回到配置页面,点击【Next】下一步
点击【Accept】配置完成!
提示保存,选择【yes】
(依Raid卡型号不同,有些可能没有此功能,如没有请跳过此步)提示SSD缓存,选择【Cancel】
提示初始化,选择【yes】
正在初始化,能看到百分比进度条(速度较快,可能一闪而过)
初始化完成!点击【Home】返回首页
阵列配置完成!
Raid1状态显示“Optimal”表示正常,Drives显示两块硬盘绿色Online正常,如果还有其它未使用的硬盘,会在unconfigured Drives下面蓝色显示。
未使用的硬盘可以继续创建阵列,也可以配置成热备盘(方法请见1.5章节)
最后点击【Exit】退出,然后【Ctrl-Alt-Delete】组合键重启服务器!
Raid5配置方法
在WebBIOS主页点击【Configuration Wizard】,打开配置向导
选择【Add Configuration】,点击【Next】下一步
选择【Manual Configuration】,点击【Next】下一步
左侧方框内可以看到所有未使用的硬盘。我们选择全部(也可以逐个选择),然后点击下方的【Add to Array】将其加入到右侧方框内。
点击【Accept DG】,创建磁盘组
点击【Next】下一步
点击【Add to SPAN】,将刚才创建好的磁盘组加入到右侧方框内
点击【Next】下一步
阵列参数配置:第一个参数“Raid Level”选择Raid5,其余保持默认
最后一个参数“Select Size”输入阵列容量大小,最大值可参考右侧绿字提示(其中R5代表做Raid5的最大容量),完成后点击【Accept】
弹出的任何提示均选择【yes】
回到配置页面,点击【Next】下一步
点击【Accept】配置完成!
提示保存,选择【yes】
(依Raid卡型号不同,有些可能没有此功能,如没有请跳过此步)提示SSD缓存,选择【Cancel】
提示初始化,选择【yes】
正在初始化,能看到百分比进度条(速度较快,可能一闪而过)
初始化完成!点击【Home】返回首页
阵列配置完成!
Raid5状态显示“Optimal”表示正常,Drives显示四块硬盘绿色Online正常
最后点击【Exit】退出,然后【Ctrl-Alt-Delete】组合键重启服务器!
Raid6配置方法
在WebBIOS主页点击【Configuration Wizard】,打开配置向导
选择【Add Configuration】,点击【Next】下一步
选择【Manual Configuration】,点击【Next】下一步
左侧方框内可以看到所有未使用的硬盘。我们选择全部(也可以逐个选择),然后点击下方的【Add to Array】将其加入到右侧方框内。
点击【Accept DG】,创建磁盘组
点击【Next】下一步
点击【Add to SPAN】,将刚才创建好的磁盘组加入到右侧方框内
点击【Next】下一步
阵列参数配置:第一个参数“Raid Level”选择Raid6,其余保持默认
最后一个参数“Select Size”输入阵列容量大小,最大值可参考右侧绿字提示(其中R6代表做Raid6的最大容量),完成后点击【Accept】
弹出的任何提示均选择【yes】
回到配置页面,点击【Next】下一步
点击【Accept】配置完成!
提示保存,选择【yes】
(依Raid卡型号不同,有些可能没有此功能,如没有请跳过此步)提示SSD缓存,选择【Cancel】
提示初始化,选择【yes】
正在初始化,能看到百分比进度条(速度较快,可能一闪而过)
初始化完成!点击【Home】返回首页
阵列配置完成!
Raid6状态显示“Optimal”表示正常,Drives显示四块硬盘绿色Online正常
最后点击【Exit】退出,然后【Ctrl-Alt-Delete】组合键重启服务器!
Raid10配置方法
在WebBIOS主页点击【Configuration Wizard】,打开配置向导
选择【Add Configuration】,点击【Next】下一步
选择【Manual Configuration】,点击【Next】下一步
左侧方框内可以看到所有未使用的硬盘。因为要做Raid10,我们先选择前两块,然后点击下方的【Add to Array】将其加入到右侧方框内。
点击【Accept DG】,创建第一个磁盘组:Drive Group0
然后再选择后两块硬盘,也点击下方的【Add to Array】将其加入到右侧方框内
点击【Accept DG】,创建第二个磁盘组:Drive Group1
点击【Next】下一步
点击【Add to SPAN】,将刚才创建好的两个磁盘组分别加入到右侧方框内
将第二个磁盘组也添加过来
点击【Next】下一步
阵列参数配置:第一个参数“Raid Level”选择Raid10,其余保持默认
最后一个参数“Select Size”输入阵列容量大小,最大值可参考右侧绿字提示(其中R10代表做Raid10的最大容量),完成后点击【Accept】
弹出的任何提示均选择【yes】
回到配置页面,点击【Next】下一步
点击【Accept】配置完成!
提示保存,选择【yes】
(依Raid卡型号不同,有些可能没有此功能,如没有请跳过此步)提示SSD缓存,选择【Cancel】
提示初始化,选择【yes】
正在初始化,能看到百分比进度条(速度较快,可能一闪而过)
初始化完成!点击【Home】返回首页
阵列配置完成!Raid10状态显示“Optimal”表示正常,所有硬盘绿色Online正常。最后点击【Exit】退出,然后【Ctrl-Alt-Delete】组合键重启服务器!
热备盘(Hotspare)配置
热备盘的作用是如果阵列中有硬盘发生故障,热备盘可以立即顶替,及时将阵列恢复为正常状态。热备盘的配置非常简单,做完阵列后,未使用的硬盘会在WebBIOS中显示为蓝色unconfigured状态,选中该硬盘进入属性页面。
选择【Make Global HSP】,点击【GO】执行
配置完成!点击【Home】返回首页
热备盘显示为粉色Hotspare状态
在WebBIOS主页点击【Configuration Wizard】,打开配置向导
选择【Clear Configuration】,点击【Next】下一步
提示清除,选择【yes】
阵列删除成功!所有硬盘显示为蓝色unconfigured Good状态
常见问题处理
重要提示:服务器通过Raid技术可以有效增强数据的安全性,但是不代表做了Raid就永远不会出问题,所以数据还是要经常备份的!
一般我们最常遇到的问题就是有硬盘亮红灯了,有些时候还会有报警声。但是请不要担心,硬盘亮红灯不代表硬盘一定有故障,而是硬盘离线了。那么哪些情况会导致硬盘亮红灯呢? 1、人为拔插过硬盘 2、硬盘没有插到位,接触不良 3、意外停电,影响了阵列信息 4、硬盘发生逻辑上的I/O错误 5、硬盘本身故障
如果您是新机器,硬盘亮红灯大多是因为物流等原因,可能某块硬盘没有插到位,接触不良;如果已经使用了一段时间,大多是因为硬盘发生了逻辑上的I/O错误,因为做了Raid以后,需要多块硬盘协同工作,不仅要把文件打碎,还要一起计算校验值,如果在某一块硬盘上计算错误,可能会导致硬盘被踢出阵列,同时亮红灯报警。如果服务器灰尘较多,容易积蓄静电,也会增加硬盘出错的概率。
下面列举了几个最常见的故障现象,请仔细阅读本手册,5-10分钟即可解决问题!
一块硬盘显示红色Offline(或者Failed)
进入WebBIOS主页,发现一块硬盘显示红色Offline状态,同时阵列降级变成了蓝色Degraded状态,此时数据还是可用的,选中红色硬盘进入属性页面。
在属性列表中找到“Media Error”和“Pred Fail Count”两项(如果找不到请点击【Next】翻页),两项都是零,说明硬盘无故障,可以放心使用!
选择【Rebuild Drive】,点击【GO】执行
阵列开始同步,能看到百分比进度条,点击【Home】返回首页
报错硬盘现在变成了褐色Rebuild状态。如果您着急使用,请点击【Exit】退出,然后【Ctrl-Alt-Delete】组合键重启服务器,同步过程可以后台进行。我们建议等同步完成再使用,继续查看同步进度请点击左下角【PD Progress Info】
查看同步进度
一块硬盘显示红色PD Missing
进入WebBIOS主页,发现一块硬盘显示红色PD Missing状态,同时阵列降级变成了蓝色Degraded状态,此时数据还是可用的,点击【Physical View】进入物理视图。
发现一块黑色硬盘显示Foreign Unconfigured Bad状态,选中该硬盘进入属性页面
在属性列表中找到“Media Error”和“Pred Fail Count”两项(如果找不到请点击【Next】翻页),两项都是零,说明硬盘无故障,可以放心使用!
至此,下面有两种处理办法,都可以解决此问题。(2.2.1和2.2.2任选其一)
方法1:Clear Foreign Configuration
选择【Make Unconf Good】,点击【GO】执行
点击【Home】返回首页
出现一块蓝色硬盘显示Foreign Unconfigured Good状态,点击【Scan Devices】
提示发现外来配置信息,选择【Clear】清除
提示清除,选择【Yes】
回到WebBIOS主页,报错硬盘现在变成了褐色Rebuild状态。如果您着急使用,请点击【Exit】退出,然后【Ctrl-Alt-Delete】组合键重启服务器,同步过程可以后台进行。我们建议等同步完成再使用,查看同步进度请点击左下角【PD Progress Info】
查看同步进度
方法2:Replace Missing PD
选择【Make Unconf Good】,点击【GO】执行
选择【Replace Missing PD】,点击【GO】执行
选择【Rebuild Drive】,点击【GO】执行
阵列开始同步,能看到百分比进度条,点击【Home】返回首页
报错硬盘现在变成了褐色Rebuild状态。如果您着急使用,请点击【Exit】退出,然后【Ctrl-Alt-Delete】组合键重启服务器,同步过程可以后台进行。我们建议等同步完成再使用,继续查看同步进度请点击左下角【PD Progress Info】
查看同步进度
多块硬盘显示红色PD Missing
进入WebBIOS主页,发现多块硬盘显示红色PD Missing状态,阵列已经挂掉变成了红色Offline状态,此时数据已经不可用,点击【Physical View】进入物理视图。
发现两块黑色硬盘显示Foreign Unconfigured Bad状态,选中一块硬盘进入属性页面
在属性列表中找到“Media Error”和“Pred Fail Count”两项(如果找不到请点击【Next】翻页),两项都是零,说明硬盘无故障,可以放心使用!
选择【Make Unconf Good】,点击【GO】执行
点击【Home】返回首页
已经有一块硬盘变成蓝色Foreign Unconfigured Good状态,同理操作另外一块
两块硬盘都变成了蓝色Foreign Unconfigured Good状态,点击【Scan Devices】
提示发现外来配置信息,选择【Preview】预览
可以看到故障发生前的阵列状态,除了第四块硬盘,其余都是绿色Online正常状态,阵列也恢复为蓝色Degraded(降级状态,此时数据已经恢复可用),点击【Import】导入配置。
回到WebBIOS主页,阵列不再是红色Offline损坏状态,第四块硬盘褐色Rebuild状态表示正在恢复阵列至正常状态。请点击【Exit】退出,然后【Ctrl-Alt-Delete】组合键重启服务器,顺利的话系统可以正常启动!修复过程可以后台进行。您也可以等待修复完成后在使用,查看同步进度请点击左下角【PD Progress Info】
查看同步进度
windows系统下管理软件使用
以lsi 8708 raid卡为例介绍windows下监控软件的使用
1、监控软件的安装,默认选择complete安装(安装介质下载路径)
2、软件运行界面,双击运行raid卡型号即可 (选择下面的connect to romote可远程连接局域网内另一台机器进行远程操作(在服务器上完全安装,本机上只安装客户端即可(custom installion安装方式),也可完全安装))
3、此软件的使用需要两个tcp 端口 3071,否则监控软件无法使用(下图中3389是远程桌面需要的端口)
如果相应端口未开,启动软件界面如下,找不到控制器
4、软件登录界面,登录用户名和密码为服务器本机用户名和密码,两种登录模式:完全控制和只读模式
5、创建阵列与热备,创建阵列时在raid卡型号上右键单击选择create virtual drive
上图中use the drive type mixing表示使用所有可用磁盘,如果未选择,可根据需要人为设置
创建热备,在未使用的物理磁盘上右键单击选择assign global hot spare:
热备硬盘显示的状态:
6、阵列删除,在逻辑阵列上右键单击 选择 delete virtual drive 即可
7、阵列初始化,选择需要初始化的阵列,选择相应的选项 start initialition
8、阵列读写策略属性更改,选择需要更改的逻辑阵列(不要选择错误,否则出现不了相应选项),选择菜单栏 Go To-virtual drive-set virtual drive properties 即可出现如下画面进行更改
9、阵列在线扩展,选中要扩展的逻辑阵列,GO To-virtual drive-expand virtual disk capacity即可
10、硬盘预期错误,点击相应物理磁盘,在右侧属性栏即可查看media error count和pred fail count错误
硬盘显示状态(黄色)
11、硬盘掉线显示状态
12、raid卡报警开启与关闭,右键单击raid卡型号,选择disable alarm或是enable alarm
13、硬盘强制上下线,选择物理磁盘右键单击选择即可
14、硬盘rebuild,右键单击掉线硬盘 选择start rebuild
Rebuild进度查询,manage -show program
15、设置后台rebuild速度,右键单击raid卡型号,选择 set adjustable task rates,可进行选择更改
16、日志保存
17、保存或导入raid配置信息
18、raid 卡 FW查看与刷新,FW刷新后需要重启服务器才能生效
选中raid卡,Goto-controller-update controller firmware
选中本机硬盘上的刷新文件即可进行刷新
19、邮件报警设置,选择菜单栏 tools -configure alerts (此功能需要开启端口49152,否则无法使用)
Alart settings 进行raid报警级别设置
Mail server 进行邮件服务器设置,sender email address :分发服务器邮箱设置(可任意设置即可),SMTP server: 邮件服务器地址,其他的不用选择
Email :接收服务器设置,输入接收邮箱地址,选择add加入即可,可用test进行测试
注:开机自检的报错
出现此问题的原因如下: 1、创建阵列时,写模式选择了,write back with BBU
2、有些lsi raid卡,在创建阵列时会多出一个选项,wrthru fou BAD BBU,如果选择了此项,默认模式就是write back with BBU,且无法更改,大多raid卡无此选项
windows系统下管理软件下载地址
说明:转浪潮官网。查看:8624|回复:13
提示: 作者被禁止或删除 内容自动屏蔽
你现在的raid状态时ok还是fail?
从原理来说,hot盘现在应该顶用了fail盘的位置,加上online的盘,你的数据应该还比较安全,要是再坏一块盘就挂了!
所以你可以进系统看下数据的!
提示: 作者被禁止或删除 内容自动屏蔽
提示: 作者被禁止或删除 内容自动屏蔽
这状态很神奇啊,这种情况下应该第一块盘是rebuil,但是它还显示的的是hot,说明热备根本没工作,你做的是raid5么?是不是raid0+1?
高级工程师
引用:原帖由 戴尔支持 于
11:24 发表
raid5最少需要三个硬盘,LZ这个一个硬盘已经的热备了 所以只剩下2个硬盘。
建议先确认好实际的硬盘数量和raid级别。
另外如果数据重要可以先尝试将failed的硬盘 force online看看是否会变成online的状态,如果可以的话就 ... 如楼上所说 请确认配置的raid规格
先确认一下raid形式吧
根据故障分析,LZ是使用的raid1+热备,因为实现raid 5 至少是需要3块盘,raid 0 加热备是不可能的,所以是raid 1+热备,现在看看机器能不能进系统,能进系统的话先备份数据,然后手动将HOPSPARE进行rebuild。
提示: 作者被禁止或删除 内容自动屏蔽
你可以切到第一个RAID虚拟磁盘界面把所有节点展开拍照么?
如果是3个盘的RAID5,绝对不会有盘显示为hot的
切到VD Mgmt截个图
中级工程师
如果是raid1加热备盘,raid1坏一块,热备盘可以直接顶上去的,然后在换一块新硬盘上去重新做成热备盘。
看着有点迷糊,感觉不像是RAID5。
为什么看不到图片内容一、 RAID 是什么?
二、 RAID 优缺点?
三、 RAID 样式?
四、 RAID 分类?
五、常见RAID总结?
六、mdadm 工具介绍?
七、创建 RAID?
八、RAID 的管理?
九、RAID 优化?
十、RAID 监控?
十一、RAID 扩展?
注:测试机 CentOS 5.5 X86_64 位
一、RAID是什么?
简单描述:
RAID:(Redundant Array of indenpensive Disk) 独立磁盘冗余阵列: 磁盘阵列是把多个磁盘组成一个阵列,当作单一磁盘使用,它将数据以分段或条带(striping)的方式储存在不同的磁盘中,存取数据时,阵列中的相关磁盘一起动作,大幅减低数据的存取时间,同时有更佳的空间利用率。磁盘阵列利用的不同的技术,称为RAID level,不同的level针对不同的系统及应用,以解决数据安全的问题。简单来说,RAID把多个硬盘组合成为一个逻辑扇区,因此,操作系统只会把它当作一个硬盘。
二、RAID 优缺点?
1. 提高传输速率。RAID通过在多个磁盘上同时存储和读取数据来大幅提高存储系统的数据吞吐量(Throughput)。在RAID中,可以让很多磁盘驱动器同时传输数据,而这些磁盘驱动器在逻辑上又是一个磁盘驱动器,所以使用RAID可以达到单个磁盘驱动器几倍、几十倍甚至上百倍的速率。这也是RAID最初想要解决的问题。因为当时CPU的速度增长很快,而磁盘驱动器的数据传输速率无法大幅提高,所以需要有一种方案解决二者之间的矛盾。RAID最后成功了。
2. 通过数据校验提供容错功能。普通磁盘驱动器无法提供容错功能,如果不包括写在磁盘上的CRC(循环冗余校验)码的话。RAID容错是建立在每个磁盘驱动器的硬件容错功能之上的,所以它提供更高的安全性。在很多RAID模式中都有较为完备的相互校验/恢复的措施,甚至是直接相互的镜像备份,从而大大提高了RAID系统的容错度,提高了系统的稳定冗余性。
1. 做不同的RAID,有RAID模式硬盘利用率低,价格昂贵。
2. RAID0 没有冗余功能,如果一个磁盘(物理)损坏,则所有的数据都无法使用。
3. RAID1 磁盘的利用率却只有50%,是所有RAID级别中最低的。
4. RAID5 可以理解为是RAID 0和RAID 1的折中方案。RAID5 可以为系统提供数据安全保障,但保障程度要比 RAID1 低而磁盘空间利用率要比 RAID1 高。
三、RAID 样式?
外接式磁盘阵列柜:最常被使用大型服务器上,具可热抽换(Hot Swap)的特性,不过这类产品的价格都很贵。
内接式磁盘阵列卡:因为价格便宜,但需要较高的安装技术,适合技术人员使用操作。
利用软件来仿真:由于会拖累机器的速度,不适合大数据流量的服务器。
四、RAID 分类?
RAID 0 数据分条(条带)盘 --- 只需要2块以上的硬盘,成本低,可以提高整个磁盘的性能和吞吐量
striping(条带模式),至少需要两块磁盘,做RAID分区的大小最好是相同的(可以充分发挥并优势);而数据分散存储于不同的磁盘上,在读写的时候可以实现并发,所以相对其读写性能最好;但是没有容错功能,任何一个磁盘的损坏将损坏全部数据;
磁盘镜像盘 --- 数据在写入一块磁盘的同时,会在另一块闲置的磁盘上生成镜像文件
mirroring(镜像卷),至少需要两块硬盘,raid大小等于两个raid分区中最小的容量(最好将分区大小分为一样),可增加热备盘提供一定的备份能力;数据有冗余,在存储时同时写入两块硬盘,实现了数据备份;但相对降低了写入性能,但是读取数据时可以并发,几乎类似于raid-0的读取效率;
RAID 2与RAID 3类似 海明码检验盘 --- 在数据发生错误的情况下将错误校正,以保证输出的正确性
RAID 3 奇偶校验码的并行传送 --- 只能查错不能纠错
RAID 4 带奇偶校验码的独立磁盘结构 --- 对数据的访问是按数据块进行的,也就是按磁盘进行的,RAID3是一次一横条,而RAID4一次一竖条
RAID 5 分布式奇偶校验的独立磁盘结构
需要三块或以上硬盘,可以提供热备盘实现故障的恢复;采用奇偶效验,可靠性强,且只有同时损坏两块硬盘时数据才会完全损坏,只损坏一块硬盘时,系统会根据存储的奇偶校验位重建数据,临时提供服务;此时如果有热备盘,系统还会自动在热备盘上重建故障磁盘上的数据;
RAID 6 带有两种分布存储的奇偶校验码的独立磁盘结构
RAID 7 优化的高速数据传送磁盘结构 --- 高速缓冲存储器
这是一种新的RAID标准,其自身带有智能化实时操作系统和用于存储管理的软件工具,可完全独立于主机运行,不占用主机CPU资源。RAID 7可以看作是一种存储计算机(Storage Computer),它与其他RAID标准有明显区别。
RAID 1+0 高可靠性与高效磁盘结构
RAID 0+1 高效率与高性能磁盘结构
RAID1+0与RAID0+1的区别:
RAID 1+0是先镜射再分区数据,再将所有硬盘分为两组,视为是RAID 0的最低组合,然后将这两组各自视为RAID 1运作。RAID 0+1则是跟RAID 1+0的程序相反,是先分区再将数据镜射到两组硬盘。它将所有的硬盘分为两组,变成RAID 1的最低组合,而将两组硬盘各自视为RAID 0运作。性能上,RAID 0+1比RAID 1+0有着更快的读写速度。可靠性上,当RAID 1+0有一个硬盘受损,其余三个硬盘会继续运作。RAID 0+1 只要有一个硬盘受损,同组RAID 0的另一只硬盘亦会停止运作,只剩下两个硬盘运作,可靠性较低。因此,RAID
10远较RAID 01常用,零售主板绝大部份支持RAID 0/1/5/10,但不支持RAID 01。
五、常见 RAID 总结?
RAID Level
空间利用率
磁盘数量(块)
读、写提升
读性能提升,写性能下降
读、写提升
(n-1)/n%
读、写提升
读、写提升
读、写提升
(n-2)/n%
六、mdadm 工具介绍?
mdadm(multiple devices admin)是 linux下标准的的软raid管理工具,是一个模式化工具(在不同的模式下);程序工作在内存用户程序区,为用户提供RAID接口来操作内核的模块,实现各种功能;
[root@localhost ~]# uname -r
2.6.18-194.el5
[root@localhost ~]# lsb_release -a
LSB Version:
:core-3.1-amd64:core-3.1-ia32:core-3.1-noarch:graphics-3.1-amd64:graphics-3.1-ia32:graphics-3.1-noarch
Distributor ID: CentOS
Description:
CentOS release 5.5 (Final)
[root@localhost ~]# rpm -qa | grep mdadm
mdadm-2.6.9-3.el5
mdadm 命令
mdadm [mode] &raid-device& [options] &component-devices&
目前支持的模式
LINEAR(线性模式)、RAID0(striping条带模式)、RAID1(mirroring)、 RAID-4、RAID-5、 RAID-6、 RAID-10、 MULTIPATH和FAULTY
LINEAR:线性模式,该模式不是raid的标准模式,其主要作用是可以实现将几块小的硬盘组合为一块大硬盘来使用,数组存储时一次存满一个硬盘在使用下一个硬盘,对上层来说操作的是一个大硬盘。
主要模式(7种)
Assemble:装配模式:加入一个以前定义的阵列,可以正在使用阵列或从其他主机移出的阵列
创建:创建一个没有超级块的阵列
Create: 创建一个新的阵列,每个设备具有超级块
Follow or Monitor: 监控RAID的状态,一般只对RAID-1/4/5/6/10等有冗余功能的模式来使用
Grow:(Grow or shrink) 改变RAID的容量或阵列中的设备数目;收缩一般指的是数据收缩或重建
Manage: 管理阵列(如添加spare盘和删除故障盘)
Incremental Assembly:添加一个设备到一个适当的阵列
允许单独对阵列中的某个设备进行操作(如抹去superblocks 或停止阵列)
Auto-detect: 此模式不作用于特定的设备或阵列,而是要求在Linux内核启动任何自动检测到的阵列
主要选项:(Options for selecting a mode)
-A, --assemble: 加入并开启一个以前定义的阵列
-B, --build:
创建一个没有超级块的阵列(Build a legacy array without superblocks)
-C, --create:
创建一个新的阵列
-F, --follow, --monitor:选择监控(Monitor)模式
-G, --grow:
改变激活阵列的大小或形态
-I, --incremental: 添加一个单独的设备到合适的阵列,并可能启动阵列
--auto-detect:
请求内核启动任何自动检测到的阵列
--create:
创建一个新的阵列
专用选项:
-n #: 设备个数
-a {yes|no}: 是否自动为其创建设备文件
-c: CHUNK大小, 2^n,默认为64K
-x #: 指定空闲盘个数
-a --add: 添加列出的设备到一个工作的阵列中;当阵列处于降级状态(故障状态),你添加一个设备,该设备将作为备用设备并且在该备用设备上开始数据重建
-f --fail:将列出的设备标记为faulty状态,标记后就可以移除设备;(可以作为故障恢复的测试手段)
-r --remove:从阵列中移除列出的设备,并且该设备不能处于活动状态(是冗余盘或故障盘)
-F --follow, --monitor:选择监控(Monitor)模式
-m --mail: 设置一个mail地址,在报警时给该mail发信;该地址可写入conf文件,在启动阵列是生效
-p --program, --alert:当检测到一个事件时运行一个指定的程序
-y --syslog: 设置所有的事件记录于syslog中
-t --test:
给启动时发现的每个阵列生成test警告信息;该信息传递给mail或报警程序;(以此来测试报警信息是否能正确接收)
-G --grow:
改变激活阵列的大小或形态
-n --raid-devices=: 指定阵列中活动的device数目,不包括spare磁盘,这个数目只能由--grow修改
-x --spare-devices=:指定初始阵列的冗余device 数目即spare device数目
-c --chunk=:
Specify chunk size of kibibytes. 缺省为 64. chunk-size是一个重要的参数,决定了一次向阵列中每个磁盘写入数据的量
(Chunk :,可以理解为raid分储数据时每个数据段的大小(通常为32/64/128等这类数字大小);合理的选择chunk大小非常重要,若chunk过大可能一块磁盘上的带区空间就可以满足大部分的I/O操作,使得数据的读写只局限于一块硬盘上,这便不能充分发挥RAID并发的优势;如果chunk设置过小,任何很小的I/O指令都 可能引发大量的读写操作,不能良好发挥并发性能,占用过多的控制器总线带宽,也影响了阵列的整体性能。所以,在创建带区时,我们应该根据实际应用的需要,合理的选择带区大小。)
-z --size=:组建RAID1/4/5/6后从每个device获取的空间总数;但是大小必须为chunk的倍数,还需要在每个设备最后给RAID的superblock留至少128KB的大小。
--rounding=: Specify rounding factor for linear array (==chunk size)
-l --level=: 设定 raid level.raid的几倍
--create:
可用:linear, raid0, 0, stripe, raid1,1, mirror, raid4, 4, raid5, 5, raid6, 6, multipath, mp.
可用:linear, raid0, 0, stripe.
-p --layout=:设定raid5 和raid10的奇偶校验规则;并且控制故障的故障模式;其中RAID-5的奇偶校验可以在设置为::eft-asymmetric, left-symmetric, right-asymmetric, right-symmetric, la, ra, ls, rs.缺省为left-symmetric
类似于--layout=
--assume-clean:目前仅用于 --build 选项
阵列中的某一部分出现在其他阵列或文件系统中时,mdadm会确认该阵列。此选项将不作确认。
-f --force: 通常mdadm不允许只用一个device 创建阵列,而且此时创建raid5时会使用一个device作为missing drive。此选项正相反
-N --name=: 设定阵列的名称
-A, --assemble: 加入并开启一个以前定义的阵列
MISC模式选项
-Q, --query: 查看一个device,判断它为一个 md device 或是 一个 md 阵列的一部分
-D, --detail: 打印一个或多个md device 的详细信息
-E, --examine:打印 device 上的 md superblock 的内容
查看RAID阵列的详细信息
mdadm -D /dev/md#
--detail 停止阵列
停止RAID阵列
mdadm -S /dev/md#
开启RAID阵列
mdadm –A /dev/md#
-c, --config=: 指定配置文件,缺省为 /etc/mdadm.conf
-s, --scan:
扫描配置文件或 /proc/mdstat以搜寻丢失的信息。默认配置文件:/etc/mdadm.conf
-h, --help:
帮助信息,用在以上选项后,则显示该选项信息
-v, --verbose: 显示细节,一般只能跟 --detile 或 --examine一起使用,显示中级的信息
-b, --brief:
较少的细节。用于 --detail 和 --examine 选项
--help-options: 显示更详细的帮助
-V, --version: 版本信息
-q,--quit:
安静模式;加上该选项能使mdadm不显示纯消息性的信息,除非那是一个重要的报告
七、创建RAID?
实验环境:CentOS 5.5 X86_64 mdadm版本为:2.6.9-3
案例:创建一RAID5具(详细过程)
1. 直接使用硬盘硬件设备,不需要分区。
创建一个RAID 0设备:
mdadm --create
/dev/md0 --level=0 --chunk=32 --raid-devices=3 /dev/sd[b-d]
创建一个RAID 1设备:
mdadm -C /dev/md0 -l1 -c128 -n2 -x1 /dev/sd[b-d]
创建一个RAID 5设备:
mdadm -C /dev/md0 -l5 -n5 /dev/sd[c-g] -x1 /dev/sdb
创建一个RAID 6设备:
mdadm -C /dev/md0 -l6 -n5 /dev/sd[c-g] -x2 /dev/sdb /dev/sdh
创建一个RAID 10设备:
mdadm -C /dev/md0 -l10 -n6 /dev/sd[b-g] -x1 /dev/sdh
创建一个RAID1+0设备(双层架构):
mdadm -C /dev/md0 -l1 -n2 /dev/sdb /dev/sdc
mdadm -C /dev/md1 -l1 -n2 /dev/sdd /dev/sde
mdadm -C /dev/md2 -l1 -n2 /dev/sdf /dev/sdg
mdadm -C /dev/md3 -l0 -n3 /dev/md0 /dev/md1 /dev/md2
2. 如果要具体使用哪个硬盘的分区做RAID,才需要fdisk特定的分区,并给它指定分区类型:fd
具体过程如下:
[root@localhost ~]# fdisk /dev/sde
Device contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel
Building a new DOS disklabel. Changes will remain in memory only,
until you decide to write them. After that, of course, the previous
content won't be recoverable.
The number of cylinders for this disk is set to 2610.
There is nothing wrong with that, but this is larger than 1024,
and could in certain setups cause problems with:
1) software that runs at boot time (e.g., old versions of LILO)
2) booting and partitioning software from other OSs
(e.g., DOS FDISK, OS/2 FDISK)
Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)
Command (m for help): n
Command action
primary partition (1-4)
Partition number (1-4): 1
First cylinder (1-2610, default 1):
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-2610, default 2610):
Using default value 2610
Command (m for help): t
Selected partition 1
Hex code (type L to list codes): fd
Changed system type of partition 1 to fd (Linux raid autodetect)
Command (m for help): w
The partition table has been altered!
Calling ioctl() to re-read partition table.
这里只举个例子,其它类似!特别说明:在fdisk分区后需要将分区标志改为Linux raid auto类型;
效果如下:
[root@localhost ~]# fdisk -l | grep /dev/sd
Disk /dev/sdb: 21.4 GB,
Linux raid autodetect
Disk /dev/sdc: 21.4 GB,
Linux raid autodetect
Disk /dev/sdd: 21.4 GB,
Linux raid autodetect
Disk /dev/sde: 21.4 GB,
Linux raid autodetect
[root@localhost ~]#
2. 建立磁盘阵列
[root@localhost ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sd{b,c,d}1
mdadm: array /dev/md0 started.
#-C:创建一个阵列,后跟阵列名称
#-a : 表示自动创建
#-l : 指定阵列级别
#-n : 指定阵列中活动devices的数目
3. 查看Raid5阵列
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdd1[2] sdc1[1] sdb1[0] #第一行
blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] #第二行
unused devices: &none&
[root@localhost ~]#
#第一行是MD设备名称md0,active和inactive选项表示阵列是否能读/写,接着是阵列的RAID级别raid5,后面是属于阵列的块设备,方括号[]里的数字表示设备在阵列中的序号,(S)表示其是热备盘,(F)表示这个磁盘是 faulty状态。
#第二行是阵列的大小,用块数来表示;后面有chunk-size的大小,然后是layout类型,不同RAID级别的 layout类型不同,[3/3] [UUU]表示阵列有3个磁盘并且3个磁盘都是正常运行的,若是[2/3]和[_UU] 表示阵列有3个磁盘中2个是正常运行的,下划线对应的那个位置的磁盘是faulty(错误)状态的。
4. 查看Raid5的详细信息
[root@localhost ~]# mdadm --detail /dev/md0
Version : 0.90
Creation Time : Thu Jun 27 17:32:19 2013
Raid Level : raid5
Array Size : .99 GiB 42.94 GB)
Used Dev Size : .99 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 27 17:34:08 2013
State : clean
Active Devices : 3 #活动的设备
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K #数据块大小
UUID : 4fa7f327:0ec5e646:e202f88e
Events : 0.2
RaidDevice State
active sync
active sync
active sync
[root@localhost ~]#
[root@localhost ~]# mkfs -t ext3 -b 4096 -L myraid5 /dev/md0
mke2fs 1.39 (29-May-2006)
Filesystem label=myraid5
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
5242880 inodes,
524116 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=
320 block groups
32768 blocks per group, 32768 fragments per group
16384 inodes per group
Superblock backups stored on blocks:
3, , 2, 2654208,
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 28 mounts or
180 days, whichever comes first.
Use tune2fs -c or -i to override.
You have new mail in /var/spool/mail/root
[root@localhost ~]#
# –t 指定文件系统类型
# –b 表示块大小有三种类型分别为 96
# –L 指定卷标
6. 挂载并查看
[root@localhost ~]# mkdir /myraid5
[root@localhost ~]# mount /dev/md0 /myraid5/
[root@localhost ~]# cd /myraid5/
[root@localhost myraid5]# ls
lost+found
[root@localhost myraid5]# df -h
Filesystem
Used Avail Use% Mounted on
0% /dev/shm
1% /myraid5 #新分区哦!
[root@localhost myraid5]#
7. 开机自动挂载
[root@localhost myraid5]# vim /etc/fstab
LABEL=/data
LABEL=/boot
gid=5,mode=620
LABEL=SWAP-sda5
[root@localhost myraid5]# mount -a
[root@localhost myraid5]# mount
/dev/sda2 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/sda3 on /data type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
/dev/md0 on /myraid5 type ext3 (rw)
[root@localhost myraid5]#
8. 生成mdadm的配置文件
/etc/mdadm.conf作为默认的配置文件,主要作用是方便跟踪软RAID的配置,尤其是可以配置监视和事件上报选项。Assemble命令也可以使用--config(或者其缩写-c)来指定配置文件。我们通常可以如下命令来建立配置文件。
[root@localhost ~]#
echo DEVICE /dev/sd[b-h] /dev/sd[i-k]1 & /etc/mdadm.conf
[root@localhost ~]#
mdadm -Ds &&/etc/mdadm.conf
[root@localhost ~]#
cat /etc/mdadm.conf
DEVICE /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh
/dev/sdi1 /dev/sdj1 /dev/sdk1
ARRAY /dev/md1 level=raid0 num-devices=3
UUID=dcff6ec9:53c4c668:58b81af9:ef71989d
ARRAY /dev/md0 level=raid10 num-devices=6 spares=1
UUID=0cabc5e5:842d4baa:e3f6261b:a17a477a
使用配置文件启动阵列时,mdadm会查询配置文件中的设备和阵列内容,然后启动运行所有能运行RAID阵列。如果指定阵列的设备名字,则只启动对应的阵列。
八、RAID的管理?
1. 给raid-5新增一个spare(空)盘,添加磁盘到阵列中做备用盘(spare)
[root@localhost myraid5]# mdadm -a /dev/md0 /dev/sde
mdadm: added /dev/sde
[root@localhost myraid5]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sde[3](S) sdd1[2] sdc1[1] sdb1[0]
blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
unused devices: &none&
mdadm: -d does not set the mode, and so cannot be the first option.
[root@localhost myraid5]# mdadm -D /dev/md0
Version : 0.90
Creation Time : Thu Jun 27 17:32:19 2013
Raid Level : raid5
Array Size : .99 GiB 42.94 GB)
Used Dev Size : .99 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 27 18:40:46 2013
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
UUID : 4fa7f327:0ec5e646:e202f88e
Events : 0.4
RaidDevice State
active sync
active sync
active sync
/dev/sde #备用盘
2. 模拟硬盘故障
[root@localhost myraid5]# mdadm -f /dev/md0 /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md0
[root@localhost myraid5]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sde[3] sdd1[2] sdc1[1] sdb1[4](F)
blocks level 5, 64k chunk, algorithm 2 [3/2] [_UU]
[=======&.............]
recovery = 37.0% (64672) finish=1.0min speed=206190K/sec #恢复过程
unused devices: &none&
[root@localhost myraid5]#
[root@localhost myraid5]# mdadm -D /dev/md0
Version : 0.90
Creation Time : Thu Jun 27 17:32:19 2013
Raid Level : raid5
Array Size : .99 GiB 42.94 GB)
Used Dev Size : .99 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 27 18:54:39 2013
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Rebuild Status : 29% complete
UUID : 4fa7f327:0ec5e646:e202f88e
Events : 0.6
RaidDevice State
spare rebuilding
/dev/sde #重建RAID5
active sync
active sync
faulty spare
[root@localhost myraid5]# mdadm -D /dev/md0
Version : 0.90
Creation Time : Thu Jun 27 17:32:19 2013
Raid Level : raid5
Array Size : .99 GiB 42.94 GB)
Used Dev Size : .99 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 27 18:56:26 2013
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 4fa7f327:0ec5e646:e202f88e
Events : 0.8
RaidDevice State
active sync
/dev/sde #同步完成
active sync
active sync
faulty spare
/dev/sdb1 #故障盘
3. 热移除故障的硬盘
root@localhost myraid5]# mdadm -r /dev/md0
mdadm: hot removed /dev/sdb1
[root@localhost myraid5]# mdadm -D /dev/md0
Version : 0.90
Creation Time : Thu Jun 27 17:32:19 2013
Raid Level : raid5
Array Size : .99 GiB 42.94 GB)
Used Dev Size : .99 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 27 19:00:19 2013
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 4fa7f327:0ec5e646:e202f88e
Events : 0.10
RaidDevice State
active sync
active sync
active sync
[root@localhost myraid5]#
4. 停止RAID
[root@localhost ~]# mdadm -S /dev/md0 #停止RAID
mdadm: fail to stop array /dev/md0: Device or resource busy
Perhaps a running process, mounted filesystem or active volume group?
#上面的错误告诉我们阵列正在使用不能停止,我们得先卸载RAID再停止
[root@localhost ~]# umount /myraid5/ #卸载md0
[root@localhost ~]# mount
/dev/sda2 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/sda3 on /data type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
[root@localhost ~]# mdadm -S /dev/md0 #停止RAID
mdadm: stopped /dev/md0 #停止完成
5. 开启RAID并挂载
[root@localhost ~]# mdadm -E /dev/sdc1 #查看超级块信息
/dev/sdc1:
Magic : a92b4efc
Version : 0.90.00
UUID : 4fa7f327:0ec5e646:e202f88e
Creation Time : Thu Jun 27 17:32:19 2013
Raid Level : raid5
Used Dev Size : .99 GiB 21.47 GB)
Array Size : .99 GiB 42.94 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Update Time : Thu Jun 27 19:14:02 2013
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Checksum : a3ba56ab - correct
Events : 10
Layout : left-symmetric
Chunk Size : 64K
RaidDevice State
active sync
active sync
active sync
active sync
[root@localhost ~]#
[root@localhost ~]# mdadm -A /dev/md0
/dev/sde /dev/sdc1
/dev/sdd1 #开启RAID
mdadm: /dev/md0 has been started with 3 drives.
[root@localhost ~]# mdadm -D /dev/md0
Version : 0.90
Creation Time : Thu Jun 27 17:32:19 2013
Raid Level : raid5
Array Size : .99 GiB 42.94 GB)
Used Dev Size : .99 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 27 19:09:56 2013
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 4fa7f327:0ec5e646:e202f88e
Events : 0.10
RaidDevice State
active sync
active sync
active sync
[root@localhost ~]# cat /proc/mdstat #查看RAID
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sde[0] sdd1[2] sdc1[1]
blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
unused devices: &none&
[root@localhost ~]# mount /dev/md0 /myraid5/ #挂载
[root@localhost ~]# ls /myraid5/ #查看
lost+found
[root@localhost ~]#
如果有配置文件(/etc/mdadm.conf)可使用命令mdadm -As /dev/md0。mdadm先检查mdadm.conf中的DEVICE信息,然后从每个设备上读取元数据信息,并检查是否和ARRAY信息一致,如果信息一致则启动阵列。如果没有配置/etc/mdadm.conf文件,而且又不知道阵列由那些磁盘组成,则可以使用命令--examine(或者其缩写-E)来检测当前的块设备上是否有阵列的元数据信息。
6. 删除 RAID
[root@localhost ~]# umount /myraid5/ #卸载md0
[root@localhost ~]# mount #查看
/dev/sda2 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/sda3 on /data type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
[root@localhost ~]# mdadm -Ss /dev/md0
mdadm: stopped /dev/md0
[root@localhost ~]# mdadm --zero-superblock /dev/sd{b,c,d}1 /dev/sde
# --zero-superblock 加上该选项时,会判断如果该阵列是否包
# 含一个有效的阵列超级快,若有则将该超级块中阵列信息抹除。
[root@localhost ~]# rm -rf /etc/mdadm.conf #删除RAID配置文件
九、RAID 优化?
设定良好的stripe值,可以在后期使用时,减少写入数据时对数据块计算的负担,从而提高RAID性能;
mk2fs -j -b 4096 -E stripe=16 /dev/md0 # 设置时,需要用-E选项进行扩展
十、RIAD 监控?
配置每300秒mdadm监控进程查询MD设备一次,当阵列出现错误,会发送邮件给指定的用户,执行事件处理的程序并且记录上报的事件到系统的日志文件。使用--daemonise参数,使程序持续在后台运行。如果要发送邮件需要sendmail程序运行,当邮件地址被配置为外网地址应先测试是否能发送出去。
[root@localhost ~]# mdadm --monitor --mail=root@localhost --program=/root/md.sh
--syslog --delay=300 /dev/md0 --daemonise
[root@localhost ~]# mdadm -f /dev/md0 /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0
[root@localhost ~]# mdadm -f /dev/md0 /dev/sd
[root@localhost ~]# mdadm -f /dev/md0 /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0
[root@localhost ~]#
[root@localhost ~]#
[root@localhost ~]#
[root@localhost ~]# mdadm -D /dev/md0
Version : 0.90
Creation Time : Thu Jun 27 21:54:21 2013
Raid Level : raid5
Array Size : .00 GiB 42.95 GB)
Used Dev Size : .00 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 27 22:03:48 2013
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Rebuild Status : 27% complete
UUID : c7b98767:dbe2c944:442069fc:23ae34d9
Events : 0.4
RaidDevice State
spare rebuilding
active sync
active sync
faulty spare
[root@localhost ~]# tail –f /var/log/messages
Jun 27 22:03:48 localhost kernel:
--- rd:3 wd:2 fd:1
Jun 27 22:03:48 localhost kernel:
disk 0, o:1, dev:sde
Jun 27 22:03:48 localhost kernel:
disk 1, o:1, dev:sdc
Jun 27 22:03:48 localhost kernel:
disk 2, o:1, dev:sdd
Jun 27 22:03:48 localhost kernel: md: syncing RAID array md0
Jun 27 22:03:48 localhost kernel: md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc.
Jun 27 22:03:48 localhost kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction.
Jun 27 22:03:49 localhost kernel: md: using 128k window, over a total of
Jun 27 22:03:48 localhost mdadm[3305]: RebuildStarted event detected on md device /dev/md0
Jun 27 22:03:49 localhost mdadm[3305]: Fail event detected on md device /dev/md0, component device /dev/sdb
[root@localhost ~]# mail
Mail version 8.1 6/6/93.
Type ? for help.
"/var/spool/mail/root": 4 messages 4 new
1 logwatch@localhost.l
Wed Jun 12 03:37
"Logwatch for localhost.localdomain (Linux)"
2 logwatch@localhost.l
Wed Jun 12 04:02
"Logwatch for localhost.localdomain (Linux)"
3 logwatch@localhost.l
Thu Jun 27 17:58
"Logwatch for localhost.localdomain (Linux)"
4 root@localhost.local
Thu Jun 27 22:03
"Fail event on /dev/md0:localhost.localdomain"
Message 4:
From root@localhost.localdomain
Thu Jun 27 22:03:49 2013
Date: Thu, 27 Jun :49 +0800
From: mdadm monitoring &root@localhost.localdomain&
To: root@localhost.localdomain
Subject: Fail event on /dev/md0:localhost.localdomain
This is an automatically generated mail message from mdadm
running on localhost.localdomain
A Fail event had been detected on md device /dev/md0.
It could be related to component device /dev/sdb.
Faithfully yours, etc.
P.S. The /proc/mdstat file currently contains the following:
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdd[2] sde[3] sdc[1] sdb[4](F)
blocks level 5, 64k chunk, algorithm 2 [3/2] [_UU]
[&....................]
recovery =
0.9% (71456) finish=1.7min speed=200064K/sec
unused devices: &none&
十一、RAID 扩展
如果在创建阵列时不想使用整个块设备,可以指定用于创建RAID阵列每个块设备使用的设备大小。然后在阵列需要扩展大小时,使用模式--grow(或者其缩写-Q)以及--size参数(或者其缩写-z) 在加上合适的大小数值就能分别扩展阵列所使用每个块设备的大小。
mdadm -C /dev/md0 -l5 -n3 /dev/sd[b-d] -x1 /dev/sde --size=1024000
# -- size单位为KB
[root@localhost ~]# mdadm -C /dev/md0 -l5 -n3 /dev/sd[b-d] -x1 /dev/sde --size=1024000
mdadm: array /dev/md0 started.
root@localhost ~]# mdadm -D /dev/md0
Version : 0.90
Creation Time : Thu Jun 27 22:24:51 2013
Raid Level : raid5
Array Size : 00.34 MiB 2097.15 MB)
Used Dev Size : 00.17 MiB 1048.58 MB)
Raid Devices : 3
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 27 22:24:51 2013
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 4
Failed Devices : 0
Spare Devices : 2
Layout : left-symmetric
Chunk Size : 64K
Rebuild Status : 73% complete
UUID : 78e766fb:776d62ee:d22de2dc:d5cf5bb9
Events : 0.1
RaidDevice State
active sync
active sync
spare rebuilding
[root@localhost ~]#
[root@localhost ~]# mdadm --grow /dev/md0 --size=2048000 #扩展大小
[root@localhost ~]# mdadm -D /dev/md0
Version : 0.90
Creation Time : Thu Jun 27 22:24:51 2013
Raid Level : raid5
Array Size : .91 GiB 4.19 GB)
Used Dev Size : 00.34 MiB 2097.15 MB)
Raid Devices : 3
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 27 22:28:34 2013
State : clean, resyncing
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Rebuild Status : 90% complete
UUID : 78e766fb:776d62ee:d22de2dc:d5cf5bb9
Events : 0.3
RaidDevice State
active sync
active sync
active sync
[root@localhost ~]#
到此所有RAID内容显示完毕!^_^……
RAID技术规范简介 RAID0 RAID1 RAID2 RAID3 RAID4 RAID5 RAID6 RAID7
RAID各级别、软RAID
RAID技术详解一
RAID技术全程指南
(最全面的)各类RAID详解
RAID详解[RAID0/RAID1/RAID10/RAID5]
常用RAID类型优劣比较
RAID系列的详细总结
没有更多推荐了,
(window.slotbydup=window.slotbydup || []).push({
id: "5865577",
container: s,
size: "300,250",
display: "inlay-fix"}

我要回帖

更多关于 raid5坏了两块硬盘 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信