当前位置:文档之家› NSITIA数据中心的电信基础设施标准完整版

NSITIA数据中心的电信基础设施标准完整版

N S I T I A数据中心的电信基础设施标准HUA system office room 【HUA16H-TTMS2A-HUAS8Q8-HUAH1688】TIA-942 ,《数据中心的电信基础设施标准》数据中心设施的设计策略?摘要Cisco 企业数据中心网络体系结构是 Cisco Systems 公司为满足 IT 环境的业务需求提供灵活支持而设计的一种集成化和具有适用性的网络体系结构,它在很大程度上依靠基础物理设施来提供保证 IT 环境完美、可靠运行的电源设备、冷却设备、物理机架、布线、物理安全和防火措施。

本白皮书讲述了支持新兴的虚拟运算环境的各项设施的设计策略。

简介数据中心的管理员们如今更趋向于考虑如何让 IT 更好地为商业策略服务、提高运营效率和为持续发展提供技术平台这些问题。

Cisco 企业数据中心网络体系结构是一种集成化和具有适用性的网络体系结构,它在支持新兴的面向服务的架构、基础设施虚拟化以及按需计算的同时,也支持 IT 组织对(数据)整合、业务持续性和安全的直接需求。

这种体系结构让 IT 管理者可以配备对其目前商业目标提供最佳支持的技术,并且可以高效地引入未来的服务和应用。

Cisco 企业数据中心网络体系结构的关键部分之一是让 IT 环境得以运转的物理设施——电源设备、冷却设备、物理支架、布线、物理安全和防火措施。

业界的一些企业,包括 APC ,用术语“网络关键物理基础设施”( NCPI )来概括这套设施:电源设备——供电基础设施包括楼宇电力供应入口、主配电设备、发电机(组)、不间断电源( UPS )供应系统和电池、过电压保护、变压器、配电盘,以及断路器。

冷却设备——数据中心的散热系统,包括机房专用空调机组( CRAC )及其相关子系统(制冷装置、冷却塔、冷凝器、风道 ( ductwork) 、泵组、管道系统( piping) )以及机架级或行级制冷设备或空气分配设备。

布线——数据线缆用不同的材料和连接器来优化系统性能和灵活性,而系统管理则为长距离通信保持这种优化。

关于电源线,在本白皮书中也有说明。

机架和物理结构——这些要素中最重要的是放置 IT 设备的机架结构、房间的物理要素(如:吊顶和活动地板),以及布线通道。

管理系统——要让系统可靠地运行,对所有物理组件进行监控是很重要的。

管理系统包括各种系统,如:楼宇管理系统、网络管理系统、网元管理器以及其它监控软件和硬件。

接地——这包括普通接地网络和保护数据中心设备不被静电放电损坏的接地设备。

物理安全和防火措施——这里所说的子系统是指室内和机架级的物理安全设备以及火灾隐患检测 /排除系统。

如果按照传统方法将以上要素单独落实,得到的将是一个复杂而且无法估量的系统,其组件并不能协同工作。

对这些组件的管理工作也变得冗杂,因为必须将各种不同的管理系统拼凑到一起来,即使这样可能都无法为可靠关键业务操作提供必需的完全监控。

然而,如果这些要素被整合到一个由全局系统管理系统支持的完善的端对端系统中,该系统将会提供支持 Cisco 企业数据中心网络体系结构所需的必要基础设施。

数据中心的供电问题和不间断电源 (UPS)问题如今的 IT 系统出现了一些在三十年前研发现代数据中心供电原理时无法预见到的新供电问题。

专家提出了五个解决目前供电系统问题的基本要求,供电系统应该:1. 是一个模块化的、能方便发展并适应不断变化的供电需求的供电系统。

系统需求很难预测,而且大多数系统都过于庞大。

研究表明,现在的标准数据中心利用率还不到其基础设施实际能力的 50% 。

产业前景预测也显示了不断攀升且不可预计的功率密度需求,而新的数据中心必须符合至少未来 10 年内的需求。

2. 采用能减少或简化规划和定制设计的一种预先设计组件的标准供电解决方案,以加快工作进度。

传统供电系统的规划和独立设计需要 6 至 12 个月,与大多数企业的规划期比起来过于漫长。

设计耗费时间、价格昂贵且是后续质量问题的根源之一,这让后期安装的扩展和修改变得非常困难。

3. 是一个具有防错功能且能减少单点故障以增加系统可用性的供电系统。

根据Uptime Institute 提供的信息, 40% 的宕机时间都是人为故障造成的。

另外,传统不间断电源供应系统使 IT 设备负载过高,以至于需要使用更多断路器来模拟单点故障。

4. 是一个提供机架级和电源级供电监控的管理系统。

服务器间的动态功率变化以及机架级的持续变化、调整的负载,会引起意外的超负荷和机架过热情况。

随着每个机架的功率密度不断提高,这些问题只会越来越严重。

5. 是一个使用标准化、可热交换和用户耐用的模块以减少平均修复时间( MTTR)的供电系统。

在传统系统中,没有随时可用的备用部件,诊断和修复都需要进入系统操作。

这些系统太复杂了,所以技术服务人员和维护人员往往会在操作和维护系统时犯错或中断放弃。

为满足以上要求,必须对现在的设计思路进行一些改进。

供电设备的技术和设计,以及如何测定数据中心的供电情况,都需要改进。

对供电系统组件的集成工作应从目前惯用的独立系统设计的设计思路转变为采用预先设计甚至预先生产的解决方案。

UPS 系统设计配置从楼宇的市电电源配电给数据中心的临界载荷是 UPS 系统设计的五种配置之一。

为特定应用选择哪一种配置,取决于可用性需求、风险承受能力、数据中心负载类型、预算以及现有供电基础设施。

很多因素都会影响系统的可用性,包括人为故障、组件可靠性、维护安排和修复时间。

在很大程度上来说,因素对整个系统可用性的影响,取决于该系统选择哪种配置。

表 1 列出了五种配置以及其相应的可用性排名、“ 等级” 和成本。

表 1. UPS 配置可用性与成本* “等级”根据由 Uptime Institute ( ) 定义的特定目标来划分系统可用性。

计算数据中心的功率需求除了选择 UPS 配置方案,计算数据中心的电力需求也是必要的。

这就需要了解制冷系统、 UPS 系统和 IT 负载所需的电量。

虽然这些元素的功率需求可能实际上相差很多,但是如果已经确定了已规划 IT 负载的功率需求,就可以准确估计出这些元素的功率需求。

除了估计电力线路的容量,这种计算还可以用于估计备用发电机系统的功率输出容量。

表 2 是一张数据中心功率需求的合理估算的数据表。

一旦确定了电力线路的容量大小,就可以在有资质的设备系统提供商(如果是大型数据中心,则是咨询工程师)的帮助下,开始规划工作。

表 2. 数据中心功率需求数据表* 1.3 变量适用于使用功率因数完全修正后的 UPS 。

如果使用带有输入谐波滤波器的传统双转换 UPS ,则必须乘以 3.0 。

数据中心的冷却自 1965 年以来,数据中心的冷却设施设计只有过很少的改动。

这使得与冷却有关的问题日渐突显,尤其是在高密度计算出现以后。

目前的冷却系统都必须符合表 3 中列出的五种关键要求。

表 3. 冷却系统的五种关键要求同供电系统一样,要解决冷却系统的问题,需要对现在的设计思路进行一些改进。

这包括冷却设备技术上和设计上的改进,以及如何测定数据中心的冷却要求。

冷却系统组件——特别是空气分配和返回系统——的标准化和集成化将极大地提升数据中心的可用性。

适度冷却与精确冷却当今的技术室需要精密、稳定的环境,以便高敏感度的电子设备达到最佳运行状态。

IT 设备会产生不寻常的的集中热负荷,同时,其又对温度和湿度的变化非常敏感。

标准空气调节系统并不适合数据中心使用,会造成系统关闭和组件故障。

设计条件应该在72 ~ 75°F (22 ~ 24°C) 之间,相对湿度 35 ~ 50% 。

不利的环境条件极具破坏性,温度的快速波动也会对 IT 设备造成不良影响。

之所以硬件设备不处理数据也要一直通电,这是原因之一。

精确空气调节系统用于长期将温度变化保持在1°F (0.56°C) 之内,湿度变化保持在 3 ~ 5% 之内。

而普通的“适度冷却”系统,则用于在夏季95°F (35°C) 和湿度 48% 的外界条件下,使室内保持80°F (27°C) 的温度和 50% 的湿度。

数据中心环境若维护不善,会对数据的处理和存储操作造成负面影响:高温或低温——高温、低温或快速变化的温度可能使数据处理崩溃并造成整个系统关闭。

温度变化可能改变电子芯片和其它板卡组件的电子、物理特性,造成误操作或故障。

这些问题可能只是暂时出现,也可能持续数日。

不过即使是暂时出现的问题,也可能难于检测和修复。

高湿度——高湿度可能会造成磁带和表面变质、磁头损坏、机架结露、腐蚀、纸张处理问题、造成组件和板卡故障的金银脱离等问题。

低湿度——低湿度在很大程度上增加了静电放电的可能性,这会破坏数据并损坏硬件。

精确空调系统的设计是为了进行精确的温度和湿度控制。

精确空调系统具有方便的服务、系统灵活性和冗余性,可保证数据中心常年 24 小时正常运行。

计算数据中心的冷却需求估算精确冷却系统的冷却容量需要了解 IT 设备和数据中心里其它热源的发热量。

发热率的常用度量单位包括 BTU (英国热量单位) / 小时、吨 / 天和瓦特。

不同度量单位的混用给用户和规则制定者造成了很多不必要的混淆。

令人欣慰的是,全球范围内的标准化组织都倾向于使用统一的标准单位:瓦特 (W) 。

BTU 和吨(指冰的冷却能力)这两个古老的术语将逐渐退出历史舞台。

IT 设备通过数据线传输的能量可以忽略不计。

因此,交流电源干线所消耗的能量基本上都会转换为热量。

( PoE 设备与远程终端的数据传送可能会消耗多达 30% 的能量,但是本白皮书为简化问题,假设所有能量都消耗在本地设备上。

)这样一来,IT 设备的发热量就可以简单地等同于该设备的电力消耗量(均以瓦特为单位)。

更简单地说,系统总发热量(即冷却需求总量)即为各组件发热量的总和,包括 IT 设备和其它项目,如 UPS 、配电系统、空调设备、照明设施以及人员。

不过,这些项目的发热率可以通过简单的标准化规则轻松测算出来。

UPS 和配电系统的发热量由两部分组成:固定的损耗值和与运行功率成正比的损耗值。

对于不同品牌和型号的设备,它们的这两部分热量损耗是十分一致的,因此可以比较准确地估计它们的发热量。

照明设施和人员所产生的热量也可以用标准值很快估算出来。

需要用户指定的变量,只有少数极易获取的数值,如地板面积和电力系统的额定功率等。

虽然空调设备的风扇和压缩机会产生巨大的热量,但是这些热量都被排放到室外,不会增加数据中心内部的热负荷。

然而,这些不可避免的能量损失会降低空调系统的效率,如果空调系统比较庞大,则这部分损失在计算时也应加以考虑。

可以根据数据中心中各项设备的发热量来进行详细的热量分析,不过利用简单规则而进行快速估算的结果也是在复杂分析结果的允许误差范围之内。

相关主题