当前位置:文档之家› NetApp存储测试报告-SAN

NetApp存储测试报告-SAN

NetApp存储测试报告1目的本次测试测试针对NetApp存储的特点、性能等方面进行相关的验证及测试,为今后的存储设备选型提供一定的技术依据。

备注:在测试项目中的输出结果,仅仅作为参考结果,实际结果与信息时间为实际测试结果为准。

2术语3测试内容●存储系统的可管理性测试●存储系统的可靠性和可用性●存储系统的扩展性、兼容性●存储性能测试4测试准备4.1 测试拓扑结构4.2 测试设备配置4.2.1 服务器配置相关的应用软件如下表所示:4.2.2 网络配置FAS3050直接用一条LC光纤线与SUN服务器V890连接。

4.2.3 存储配置存储服务器:NetApp FAS3050 具体配置:磁盘容量:2T裸容量的磁盘。

磁盘转速10000RPM,单个磁盘的裸容量为144G, 总共为14个。

4.3 测试工具对于存储的功能测试,测试厂商需根据测试环境、案例要求准备测试工具,提供相关的监控软件对测试过程进行监控,对监控指标进行记录。

4.4 存储的可管理性测试是否具有强大的管理功能,主要包括以下一些方面。

具体可结合NetApp公司提供的测试方案进行具体测试。

4.5 存储可靠性、可用性测试测试项目目的步骤预期结果1.检测电源冗余系统是否可在单电源情况下正常工作(证明电源无单点故障)并且电源可在线更换存储设备具有完善的电源、风扇冗余功能;电源风扇模块可热插拔;1.确认应用均正常运行。

2.在应用不间断的情况下,随机选择拔下一个电源风扇模块(模拟电源故障情况),并通过管理软件检测整个过程中系统是否发生中断应用无中断3.拔出机头1个电源风扇模块;应用无中断4.拔出第1个磁盘柜的1个电源风扇模块;应用无中断5.恢复磁盘柜1的失效电源;应用无中断6.恢复磁盘柜2的失效电源;应用无中断7.恢复机头的失效电源;应用无中断附:存储控制台输出HN> Wed Sep 20 11:43:22 CST [ses.status.psWarning:warning]: DS14-Mk2-FC shelf 1 on channel 0c power warning for Power supply 1: non-critical status; DC und ervoltage fault. This module is on the rear side of the shelf, at the left.Wed Sep 20 11:43:34 CST [ses.status.psError:CRITICAL]: DS14-Mk2-FC shelf 1 on ch annel 0c power error for Power supply 1: critical status; power supply failed. This module is on the rear side of the shelf, at the left.Wed Sep 20 11:43:42 CST [monitor.chassisPowerSupply.degraded:notice]: Chassis po wer supply 2 is degraded: PSU 2 AC FailedWed Sep 20 11:43:43 CST [monitor.chassisPowerSupply.degraded:notice]: Chassis po wer supply 2 is degraded: PSU 2 12V FailedWed Sep 20 11:43:43 CST [monitor.chassisPowerSupply.degraded:notice]: Chassis po wer supply 2 is degraded: PSU 2 5V FailedWed Sep 20 11:43:50 CST [monitor.chassisPowerSupply.ok:info]: Chassis power supp ly 2 is OKWed Sep 20 11:43:50 CST last message repeated 2 timesWed Sep 20 11:44:00 CST [monitor.globalStatus.critical:CRITICAL]: Disk shelf fault.Wed Sep 20 11:44:27 CST [ses.status.psInfo:info]: DS14-Mk2-FC shelf 1 on channel 0c power supply information for Power supply 1: normal statusWed Sep 20 11:45:00 CST [monitor.globalStatus.ok:info]: The system's global status is normal.2.检验系统全局热备份盘功能测试磁盘阵列是否能够通过动态备盘自动接管模拟的故热备份盘为全局热备份,可自动接管失效磁盘。

系统中障磁盘未使用的磁盘均为热备份盘1.确认应用均正常运行。

2.在应用不间断的情况下,由用户任意选择拔出使用中的两个磁盘(模拟磁盘故障),通过管理软件检测整个过程中系统是否发生中断,系统是否始终能够正常工作;系统中的热备份盘自动接管失效磁盘,并开始RAID重构,重构完成时间为4个小时。

注:热备份盘与失效磁盘位于系统的相同磁盘柜中。

3.重新插入步骤2中拔出的磁盘;该磁盘被系统自动识别为新的热备份盘。

针对RaidDP的数据重构,首先我们建立900GB的LUN,并mount在”/mnt”目录下,已写入LUN的数据大约在671GB左右,同时,在数据重构的过程中,同时有三个带库数据流同时写入LUN,以此模拟在存储硬盘在两个磁盘同时损坏的情况下,数据不会掉失和数据重构时间。

附:主机状态输出root@v890c # df -kFilesystem kbytes used avail capacity Mounted on/dev/md/dsk/d10 10332460 3060571 7168565 30% //proc 0 0 0 0% /procmnttab 0 0 0 0% /etc/mnttabfd 0 0 0 0% /dev/fdswap 16993232 48 16993184 1% /var/runswap 16994768 1584 16993184 1% /tmp/dev/md/dsk/d100 282350487 61142125 218384858 22% /test/dev/md/dsk/d120 2063407 2122 1999383 1% /oracle_log/dev/md/dsk/d110 6203694 4507236 1634422 74% /oracle/dev/md/dsk/d80 20646121 8950169 11489491 44% /catadata/dev/md/dsk/d60 120498954 65374267 53919698 55% /backup/dev/md/dsk/d90 10332460 10265 10218871 1% /catabak/dev/dsk/c3t7d0s0 928963200 671745420 247928148 74% /mnt存储控制台输出:HN*> Wed Sep 20 15:45:52 CST [raid.rg.recons.done:notice]: /aggr0/plex0/rg0: reconstruction completed for 0a.29 in 4:00:26.80Wed Sep 20 15:46:01 CST [raid.rg.recons.done:notice]: /aggr0/plex0/rg0: reconstruction completed for 0a.19 in 3:59:40.50以上显示为RaidDP重构的时间为4小时。

3. 测试RAID方式切换测试对一个RAID组进行RAID方式的动态切换(RAID-4,RAID-DP)RAID方式切换简易、方便。

不会中断应用。

从RAID-4方式切换到RAID-DP方式时,由于需要构建第2块校验盘,需要占用存储设备的部分CPU与时间。

1.确认应用均正常运行。

2.在应用不间断的情况下,从RAID-DP切换回RAID-4,观察应用状态,记录切换时间HN> aggr options aggr0raidtype raid4应用无中断。

RAID-DP组中的第2块校验盘被系统立即识别为热备份盘,瞬时切换。

3.通过记录应用程序服务器单位时间I/O的次数和吞吐率、控制器BUSY程度,记录主机I/O等待时间。

针对Raid4的数据重构,首先我们建立900GB的LUN,并mount在”/mnt”目录下,已写入LUN的数据大约在562GB左右,同时,在数据重构的过程中,同时有三个带库数据流同时写入LUN,以此模拟在存储硬盘在一个磁盘同时损坏的情况下,数据不会掉失和数据重构时间。

存储控制台输出:HN*> Wed Sep 20 15:45:52 CST [raid.rg.recons.done:notice]: /aggr0/plex0/rg0: reconstruction completed for 0a.16 in 3:20:07.89以上显示为Raid4重构的时间为3小时20分。

4.检验弹性卷空间的动态调整功能检验弹性卷空间是否可以动态调整。

弹性卷空间可动态调整,应用无中断。

1.确认应用均正常运行。

2.在应用不间段的情况下,动态增加卷空间,观测所需时间,观测系统选取磁盘的现象。

扩展瞬间完成。

应用无中断。

3.在应用不间断的情况下,系统中的热备份盘由用户任意选择拔出使用中的一个磁盘(模拟磁盘故障),通过管理软件检测整个过程中系统是否发生中断,系统是否始终能够正常工作;自动接管失效磁盘,并开始RAID重构,重构完成时间为4个小时。

注:热备份盘与失效磁盘位于系统的相同磁盘柜中。

4.通过记录应用程序服务器单位时间I/O的次数和吞吐率、控制器BUSY程度,记录主机I/O等待时间对应用没有影响附:存储控制台输出HN*> df -mFilesystem total used avail capacity Mounted on/vol/data/ 450560MB 21034MB 429525MB 5% /vol/data/snap reserve 0MB 0MB 0MB ---% /vol/data/../vol/vol0/ 92916MB 147MB 92768MB 0% /vol/vol0//vol/vol0/.snapshot 23229MB 7MB 23221MB 0% /vol/vol0/.snapshot/vol/ddd/ 859MB 320MB 538MB 37% /vol/ddd//vol/ddd/.snapshot 214MB 0MB 214MB 0% /vol/ddd/.snapshotHN*> vol size ddd +100mvol size: Flexible volume 'ddd' size set to 1174m.HN*> df -mFilesystem total used avail capacity Mounted on/vol/data/ 450560MB 21034MB 429525MB 5% /vol/data/snap reserve 0MB 0MB 0MB ---% /vol/data/../vol/vol0/ 92916MB 147MB 92768MB 0% /vol/vol0//vol/vol0/.snapshot 23229MB 7MB 23221MB 0% /vol/vol0/.snapshot/vol/ddd/ 939MB 320MB 618MB 34% /vol/ddd//vol/ddd/.snapshot 234MB 0MB 234MB 0% /vol/ddd/.snapshotHN*>5.LUN空间的动态扩展测试LUN空间的扩展。

相关主题