大型集中式数据中心的pue值是什么一般设定为多少以下

您现在正在浏览:
Google数据中心PUE的秘密
发布时间:
17:33:50 &
浏览次数:
摘要: Google数据中心PUE的秘密-CSDN.NET【CSDN编译】尽管距离Facebook公开其数据中心设计蓝图已经过去了一年半...
Google数据中心PUE的秘密-CSDN.NET
【CSDN编译】尽管距离Facebook公开其数据中心设计蓝图已经过去了一年半,但Google公布的数据中心设计还是值得研究。不可否认,Google和亚马逊依然是地球上拥有最先进的数据中心的两个公司,包括Facebook服务器实验室系统工程经理Amir Michael、Prineville数据中心总经理Ken Patchett在内的许多工程师都来自Google。上个月,我们第一次了解到Google数据中心内部的景象,不过这些照片并不是Google最先进的数据中心,其中所包含的信息量也相当有限。同样的,Google公布的自己数据中心的文档更像是一次炫耀,大篇幅的展示了极低的PUE,而对设计细节忽略不提。尽管如此,我们还可以从其中发现有价值的信息。好,让我们开始。
图:Goole芬兰哈米纳港数据中心量化和提升能源的使用
当面临互联网应用服务器爆炸式增长的局面,我们将精力放在如何减少能源使用上。大多数数据中心就像给服务器供电一样,给非计算用设备无限制的供电(即日常管理、制冷等)。在Google,我们将传统数据中心的制冷用电比例降低到13%。这样,大部分的电能用于服务器,这些服务器将为搜索及其它产品提供支持。我们对用电量进行测量,不断的朝目标行进&&提供更多服务,减少电量浪费。
如何降低PUE&&Google的5点建议
不管你运营的是小型数据中心还是大型的数据中心,你都可以采用一些简单的设计来提升效率,降低成本并减少对环境的影响。
1、测量PUE
没有测量就没有管理,采用更综合的方法测量PUE。
我们的计算基于Google在全球所有的数据中心的性能,不仅仅是我们最新的或最好的数据中心。同时,统计数据贯穿全年,并不仅统计凉爽的季节。
不仅如此,我们还将所有的日常产生的耗能全部进算在其中。当然,只要采用更宽松的Green Grid v2标准(Green Grid's PUE measurement standards。Green Grid是一个非盈利的企业团队,成员包括 AMD、APC、Cisco、Dell、Emerson、Fujitsu、Fujitsu Siemens、HP、IBM、Intel、微软和Sun等供应商以及ADP、Allstate、BT、Enterprise、Facebook和Fed Ex Services等用户。),就可以得出更低PUE值。事实上,如果使用业界通常的解释,我们效率最高的数据中心可以不夸张的达到PUE 1.06。然而,我们坚持使用更高的标准,因为我们相信这可以有助于更好的统计和优化我们的用电。总之,我们公布的综合PUE为1.13,覆盖全球所有的数据中心,并贯穿全年,以及所有的日常用电。
图:Google数据中心PUE统计边界。平均PUE为1.13,如果忽略变电站、电源转换以及发电设备,PUE将降低到1.06。
Google数据中心PUE统计
自从2008年开始公开PUE后,每年我们都不断的降低PUE。截至到2012年第二季度,过去12个月的加权平均值(TTM)PUE达到了1.13,这是全球效率最高的数据中心。
图:Google自2008年以来的PUE统计
图:Google数据中心PUE计算取值含义
这里是从2008年到现在的Google数据中心PUE统计,如果想了解Google数据中心PUE的计算公式,可以在这里找到。
2、管理气流
气流管理对数据中心运营十分重要。通过恰当的设计尽量减少热空气和冷空气混合。然后,确保热空气被密封。我们发现一些很小的分析工具能带来巨大的回报。比如,通过电脑流体力学(CFD)建立气流模型可以帮助你快速的描绘和优化气流,这样你就不用对电脑房大规模重组。
控制设备的温度
为了在持续节能的前提下保持设备最佳状态,温度管理、气流管理以及设备管理尽量保持简单,提高成本效益比。
将恒温器设定提高到80华氏度(约等于26.7摄氏度)
让数据中心节能最简单的办法就是提高温度,根据专家的建议以及设备制造商的说明,数据中心可以在80华氏度以上安全的运行。
建立热力模型
我们使用热力模型来定位&热点&,并能更好的理解气流的运行。在数据中心设计阶段,通过物理组合的方式让设备温度更加平均。在这之后,我可以移动计算机机房空调来减少热点,并降低其周边的温度,最终减少空调必须运行的时间。
我们找到低成本的方式管理气流
为了减少制冷成本,我们要防止机架后端排到热管的热空气与机架前端环境的冷空气混合。在我们那些巨大的数据中心里,我们使用了适当的导管和附属设备。此外,在较小的数据中心中,我们采用适当简单的散热方式。请看实例:
使用空的面板(或者平坦材料)封闭机架上空闲的机位,防止热空气渗入冷空气。
悬挂塑料窗帘(与在冰箱中使用的材质相似)防止冷空气跑掉。
将高温的部件或区域(如供电单元)用塑料窗帘密封起来
3、调整恒温器
让数据中心保持在70华氏度(约等于21.1摄氏度)简直是生活在童话中。事实上,所有的设备制造商都允许你将通道温度提升到80华氏度或更高。如果让你的数据中心效率更高(我们强烈推荐),让它运行在更高的温度就能在更多天里实现&免费制冷&(通过室外的自然空气进行制冷)并节约更多的电能。
4、使用免费的制冷
通常冷水机组都会用在数据中心的制冷设备中,你可以发现这就是节省电能的巨大机会。利用&免费制冷&消除高温就能避免使用冷水机组。这包括使用周边低温的空气、蒸发器以及巨大的热容设备。当然,有许多方法让你使用&免费制冷&,水和空气都被证明可以使用的资源。
用水替代冷水机组
电力在数据中心中最终会转换成热量。大部分数据中心使用冷水机组或空调进行降温,这将占到日常用电中的30-70%。在Google数据中心,我们经常使用水这种高能效的方式来代替。
使用水来围堵热空气以及对设备降温
我们为机架设计并定制了制冷系统,我们叫它&热屋&(Hot Huts),因为它用作容纳从服务器排出的热空气的临时房间,房间与数据中心其余地板是隔离的。每个热屋的顶部都装有风扇,将服务器排出的热空气吸入水冷器。冷却后的空气离开热屋回到数据中心的环境中,服务器可以将这些冷空气抽入帮助降温,空气完成了一个循环。
利用蒸发器制冷
蒸发是非常强大的工具。在我们人体上,当外界温度高过身体的温度时,蒸发可以帮助我们保持体温。我们的冷却塔和人体出汗的工作原理如出一辙。热水从数据中心输送到冷却塔,水从上到下流过快速蒸发器,一部分水转变成水蒸气。风扇将这些水蒸气向上推动,这一过程将带走剩余的热量,然后将变冷的水输送回数据中心。
利用海水进行自然冷却
蒸发水并不是唯一的免费冷却方式。我们在芬兰哈米纳港的数据中心使用海水降温,没有使用冷却装置。数据中心地处芬兰湾,气候寒冷。冷却系统将寒冷的海水输送到数据中心,热量通过交换器传送给海水,海水最终流回海湾。通过这种方法,可以给我们提供全年的冷却,而根本不需要任何冷却装置。
节约并循环用水
为了更节约用水,我们在两个数据中心实现了100%循环用水,并在1/3的数据中心中通过收集雨水进行制冷。这个方法很简单,替代用于冷却的饮用水,而使用不能饮用的水源,通过清洁就可以用于冷却了。
我们通过各种方式使用循环水。在道格拉斯数据中心我们利用城市废水,在比利时数据中使用工业废水,通过盛有干净沙子的巨大的水槽过滤水中的微小粒子,水会变得干净(尽管并不适合饮用)。不过,循环用水的方式并不总是很划算,我们对找到合适的方法来支撑大部分循环用水还是持乐观态度。
5、优化电源布局
你可以通过减少电流转换的次数来减少分布式电源带来的电能损耗。你必须进行电流转换,但要确保使用特定的转换设备和分布式电源单元(PDU)。数据中心中分布式电源最大的能量损失之一来自不间断电源(UPS),所以选择高效率的UPS十分重要。最后,尽量让高电压接近电源,这可以减少能量损失。
定制高效的服务器
Google的服务器始终保持着高效率,它是我们数据中心的核心,并且经过了极端节能设计,通过最小化电能损失以及移除不必要的组件来实现。
优化电源路径
一个典型的服务器最多将浪费1/3的电能,只有电能用于服务器的计算才能发挥真正的价值。服务器浪费的大部分电能是在电源部分,电源需要将标准的交流电转换成低电压的直流电。这一过程将损失大量电能,同时芯片也将完成进一步电源转换工作。这种设计可以降低初始成本,但最终将在电力转换的过程中花费大量的成本。
Google的服务器则不同。从2001年开始,我们一直在改进设计不断提高效率。多年之后,我们的供电效率已经超过了&气候保护计算倡议组织&的&金牌&标准(Climate Saver Computing Initiative,简称CSCI),事实上,我们与&气候保护计算倡议组织&、Intel以及世界自然基金会(WWF)共同努力提升工业电源效率。同时,我们使用了更高效率的调压模块,确保更多的电能输送到各个组件。我们在机架后放置电池直接向服务器供电,这样就可以省去两次交流/直流变换过程。我们估算,一台服务器一年时间就可以节省500kWh,相当于典型的服务器能耗的25%。
定制自己的服务器 只保留必须的组件
对于硬件,我们只保留那些对我们的应用有帮助的部分。我们去掉那些外围的部件和显卡。我们还优化服务器和机架以适应最小功率的风扇,在保持服务器冷却的前提下,尽量降低风扇的转速。
我们鼓励所有的供应商去除那些闲置的组件,这里是2007年发布的&能源比例&文档。
关于Google数据中心的相关信息
图:数据中心传统的冷却方式是通过高出地面的计算机机房空调(CRAC)制造冷空气
图:Google上个月公布的数据中心的照片,在风道内有输送冷水的水管,这是自2006年以来的第5次升级。
图:Google对风冷和水冷方式进行了评估,水冷的热容积和热传导性分别是风冷的4.1倍和23.8倍。
图:Google模拟了100MW的IT负载,风冷所消耗的电能是水冷的4.875倍。
图:Google展示了制冷设计专利
&每一个Google员工都需要签署一份保密协议,而这在Facebook根本不需要。&这是Facebook Prineville数据中心总经理Ken Patchett在接受Wired记者采访是透露的。即便现在,Google对数据中心的保密等级并没有因为公开一些无足轻重的照片而降低。除了图片、描述笼统的文字和YouTube上有限的介绍影片,Google数据中心更多的秘密还需要时间来揭秘。(文/包研审校/仲浩)
原文:Google
11月30日-12月1日,北京新云南皇冠假日酒店,业内将迎来国内大数据领域最纯粹的技术盛会&&HBTC 2012(Hadoop&BigData Technology Conference 2012)。Hadoop及云计算生态系统的力量齐聚北京,欢迎热爱开源的朋友们加入!报名网址参见HBTC 2012。
更多精彩内容,请关注新浪微博:@CSDN云计算;大会官网:HBTC 2012
,房间与数据中心其余地板是隔离的。每个热屋的顶部都装有风扇,将服务器排出的热空气吸入水冷器。冷却后的空气离开热屋回到数据中心的环境中,服务器可以将这些冷空气抽入帮助降温,空气完成了一个循环。
下一篇:没有了
本周热门资讯排行数据中心机房PUE值偏高问题及解决方案
数据中心机房PUE值偏高问题及解决方案
  一、冷却成为数据中心最有价值计划
  随着电子信息系统机房IT设备高度的集成化,其能源效率偏差以及机房散热量日渐趋高的现象开始受到了各界强烈关注。
  据权威部门统计,我国高端服务器集中的通信行业耗电在2007年就已达到200亿度以上,信息产业俨然已经成为一个高能耗行业。而服务器又是现在数据中心机房的核心,并且24小时运行。以我国服务器保有量为200万台,按每台服务器平均功耗400瓦,每年的耗电总量约为80亿千瓦时。
  根据中国电信节能技术蓝皮书所载,一般机房内芯片级主设备1W的功耗会导致总体耗电量达到2.68-2.84W,而其中机房空调冷却系统的耗电量约占机房总能耗的40%。由绿色网格组织(GreenGrid)所提出的电力效率指标PUE数值(PowerUsageEffectiveness)是通过计算机房的总能耗与所有IT主设备能耗的比值而得出的。故可估算上述机房的PUE值至少为2.68-2.84。由此推算,我国数据中心机房消耗到空调冷却系统的能量至少为84亿千瓦时。这也就意味着为服务器提供冷却的机房空调系统能耗大约能达到我国空调设备每年总能耗1/4!
  据称:Google公司的数据中心PUE年平均值可以达到1.21,中国Hp的新一代数据中心体验中心机房夏季PUE值可以达到1.6-1.7。这一指标如何实现?
  据美国电力转换公司APC最近的统计数据显示,数据中心的冷却成本大约占总能源账单的50%。而国际组织UptimeInstitute指出,由于数据中心机房内气流不适当,用于冷却的冷空气有60%都浪费了;数据中心的过度冷却(overcooling)差不多达到实际需求的2倍,目前多数机房存在过度冷却问题,相应的机房空调机组耗能也比设计工况增加耗电50%以上,最终造成机房居高不下的高额运行费用。
  故此&&优化数据中心冷却是排在第一位的最有价值的绿色计划!
  二、数据中心高效节能冷却解决方案
  由于现代电子信息系统机房中的空调负荷主要来自于计算机主机设备、外部辅助设备的发热量,其大约占到机房空调总负荷的80~97%;而在服务器、存储、网络等主设备中服务器的份额又大约占到设备散热量的80%。
  所以随着服务器集成密度的持续增高,服务器机柜设备区就成为了机房内主要的热岛区域。从机房基础架构而言,国家标准《电子信息系统机房设计规范》GB规定:&当机柜或机架高度大于1.8m、设备热密度大、设备发热量大的电子信息系统机房宜采用下送风空调系统。&而下送风空调系统是将抗静电活动地板下空间作为空调系统的送风静压箱,空调机组由通风地板向机柜、设备等热负荷送风。
  可是机房内空调冷却系统的送风按照流体力学伯努利原理所陈述的气流特性&&&风速大的压力小&表明,受此特性制约的空气流会呈现靠近空调机组的通风地板出风量较小;又由于机房空调系统的靠近空调机组的前部通风地板已然输送出了一定的风量,后部的通风地板的送风量即会显现有所减少;而到了地板末端又相反;又因为现有数据中心机房面积为了规模效应而愈建越大,一般安置的机房空调机组的方式是长距离的气流对吹,由此会出现在抗静电地板下产生风压相抵、通风地板送风量减小的现象。
  从以上分析可见将抗静电活动地板作为空调系统送风静压箱进行设计时,其参数选定的误差可能会很大,这必将导致机房投入运行时主设备运行的安全性、可靠性及机房整体能耗表现得差强人意。
  现代机房在设计空调冷却系统的送风气流时一般是参照设备发热量、机柜前后温差,以及地板高度和地板下有效断面积等因素,再按照空调机组送气量的30-40%来计算通风地板开口面积;并且规定用于机柜冷却的送风口必须能够提供大于机柜冷却所需的风量。理想状态下机房内活动地板下的送风风压按照送风静压箱的设计模式姑且认定均匀风压为20Pa左右;机房通风地板送风风速按照国家标准要求取值3m/s;在实际应用中选用通风率(通风量)高达25%的通风地板,则当处于理想流体状态下的单个通风地板理论上可以供应的最大送风量约为500立方英尺/分钟(849.45m3/h)或是其能提供约3.125kw的制冷量。
  而现实运行中的机房通风地板最好的送风风速也就是1.5m/s;这就严重影响了空调系统的冷却效果,使机房空调、以致整个机房的能效偏低。
  由于现在机房服务器类负荷的最高散热量近年来已攀升至每机柜20KW以上;而原有地板下送风机房精密空调系统理想送风状况下的机房单位面积最大供冷量为4KW/O(更大供冷量所配置的空调机组送风量也相应增大,其送风风压足以把地板给吹起来),已无法满足其需求;并直接制约着高集成度IT设备在电子信息系统机房行业内的推广应用。
  另外,现在IT行业服务器应用中普遍存在利用率低下的现象,从而引致现有的数据中心机房诸多能效问题。故IT行业多是采用虚拟化技术来整合服务器和存储设备,以图机房PUE值得以降低。但是如果IT部门对其服务器和存储进行了虚拟化,将IT电力消耗减少了以后,事实上很可能会产生更加不利的电力使用效率。譬如将机房内部分服务器进行了虚拟化应用,虽然能够降低IT设备电力消耗大约20%,但如果不改变机房现有基础架构和使用面积,就无法避免机房出现过冷现象,也就无从降低机房空调系统能耗。这会使得PUE值反而升高。所以IT业界进而采用更直接的手段&&测定服务器的利用效率,以图改善单纯采用PUE能效值进行机房能效评估所造成的误导。另外还有的是采用SPEC芯片利用效率测试工具类型的软件来监测IT设备的数据处理流量/秒(或数据吞吐量/秒)与IT设备的功耗之比的技术。
  随着IT虚拟化技术的大量应用,机房内势必会出现散热点趋向于关键的、主要运行的高热密度设备转移的现象。导致机房内会出现少量高热密度的热岛区域,而其它非主要(辅助运行)设备区域的空调环境冷却需求度相对却较少的状态。此时如果不改变机房现有基础架构和使用面积,并为了避免主设备宕机或使用寿命的减少而必须维持机房内的少量高热密度散热点微环境状况不超标,就无法避免地出现机房整体区域过度冷却的现象。造成机房能耗及PUE能效值显现得奇高。
  据Uptime学会统计目前全球85%以上数据中心机房存在过度制冷的问题。针对机房过冷问题,在最近的调查显示数据中心机房实际提供的冷量平均是热负荷所需冷却功能的2.6倍;即使这样机房出现过热部位的可能性还是达到了10%。所对应的机房空调机组耗能也比设计工况增加能耗大约50%以上。
  上面所陈述的机房实际状况说明现代空调系统按照整体区域平均冷却模式设计的机房空调环境如应用于高热密度或高散热量的负荷就无法避免地采用了过度冷却方式,导致机房能耗超高,能效值差强人意。这也意味着机房环境空调冷却领域必须进行相应的按需冷却理论和应用方面的创新,以应对服务器等类型的机房主设备发展需求和社会对其能源利用效率的要求。
  针对上述数据中心机房能效现状,我们提出具体的解决方案是:首先,通过对整个数据中心的红外温度热场分布以及气流流动情况,准确找出问题点以便用来改善数据中心的热效率。帮助用户建立他们数据中心精确的模型,提出数据中心地板室温以及返回天花板静压模型的能力,在温度调节设置时从4个CRAC边界条件中选择设定,并通过CFD方法能够得到流动和热传递的耦合解,用以正确说明气体流动和热的交换;根据得到的PDU具体热负荷来提供数据中心的评估报告,包括对数据中心气流和热载荷的评估,当风量或气流的冷却能力不能胜任的时候对用户提出警告,并提供综合的冷却能源审计报告,包括CRAC、机架和地板气流性能的详细分析报告。
  其次,在送回风不畅的机房区域施行将原先的通风地板更换为高通风率的通风地板,以辅助下送风机房空调的送风效果。由于现有电子信息系统机房的气流组织现状十分复杂,导致主机房高热密度负荷不能及时被空调机组所冷却,所以须在主机房高负荷服务器机柜前方更换专用的风机通风地板;还可通过集约探测分布式群控风机地板,高效节能整体地解决机房服务器机柜冷却难题。
  进而,再通过上述控制系统的上位机平台实行调整机房空调的温湿度设置参数,使之设定在20&25℃/40&55%Rh的合理范围内,让机房空调机组系统达到既满足机房设备冷却所需;又避免出现机房过度冷却的效果。
  在应用以上步骤的前提下;再对机房空调系统采用联控运行的模式,以达到最优散热效果的情况以及避免出现空调机组功效抵消的状况;最终可以实现提高数据中心的能源利用效率、节约机房散热之冷却系统的电耗。经优化改造后的机房其PUE值类比可达到Hp公司的动态智能散热解决方案(DynamicSmartCooling)之降低数据中心散热成本40%的同级别水平。
  综合以上数据进行分析,可以得出结论:配用了红外探测控制可调速风机通风强化全钢防静电地板(每块地板承重均布负荷&1400kg)的机架至少可以满足4KW(即标准19''机柜能够满足输入功率4KVA,或者是能够装载下20个标称200W的1U服务器)热负荷的散热;如配用特殊定制高风量风机的通风地板可满足最大25KW/机架热负荷的散热需求,足以解决诸如刀片服务器、或虚拟化应用等类型的高热密度负荷进入机房场地后的局部热点问题;进而可解决数据中心机房整体能耗飙升等系列难题。
&&&主编推荐
H3C认证Java认证Oracle认证
基础英语软考英语项目管理英语职场英语
.NETPowerBuilderWeb开发游戏开发Perl
二级模拟试题一级模拟试题一级考试经验四级考试资料
港口与航道工程建设工程法规及相关知识建设工程经济考试大纲矿业工程市政公用工程通信与广电工程
操作系统汇编语言计算机系统结构人工智能数据库系统微机与接口
软件测试软件外包系统分析与建模敏捷开发
法律法规历年试题软考英语网络管理员系统架构设计师信息系统监理师
高级通信工程师考试大纲设备环境综合能力
路由技术网络存储无线网络网络设备
CPMP考试prince2认证项目范围管理项目配置管理项目管理案例项目经理项目干系人管理
Powerpoint教程WPS教程
电子政务客户关系管理首席信息官办公自动化大数据
职称考试题目
就业指导签约违约职业测评
招生信息考研政治
网络安全安全设置工具使用手机安全
3DMax教程Flash教程CorelDraw教程Director教程
Dreamwaver教程HTML教程网站策划网站运营Frontpage教程
生物识别传感器物联网传输层物联网前沿技术物联网案例分析
互联网电信IT业界IT生活
Java核心技术J2ME教程
Linux系统管理Linux编程Linux安全AIX教程
Windows系统管理Windows教程Windows网络管理Windows故障
组织运营财务资本
视频播放文件压缩杀毒软件输入法微博
数据库开发Sybase数据库Informix数据库
&&&&&&&&&&&&&&&
希赛网 版权所有 & &&&&湘教QS2-164&&增值电信业务经营许可证湘B2-数据中心的效率(PUE)计算指导PUE,数据中心,效率,效率计算,效率的,PUE八
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
数据中心的效率(PUE)计算指导
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer-4.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口当前位置:
深度解读:北京限制数据中心建设
中国IDC圈  
核心提示:
2014年7月北京市人民政府办公厅发布《北京市新增产业的禁止和限制目录(2014年版)》,其中由市经信委制定的关于信息传输软件和信息技术服务业门类下明确规定:禁止新建和扩建数据中心,PUE值在1.5以下的云计算数据中心除外。
限令政策背景
1、 总体规划阶段:
2011年12月,《北京市"十二五"时期工业与软件和信息服务业节能节水规划》发布,其中提到了"到2015年,北京市工业与软件和信息服务业的能耗、水耗水平继续保持全国领先地位".并制定了关于能耗、水耗、二氧化碳等排放的约束性指标。
2、 部分限制和建议阶段:
2012年5月,北京市经信委发布《关于加快推进软件和信息服务业节能工作的意见》的通知,指出"新建、扩建单个项目年综合能耗在1000吨标准煤以上的项目必须进行节能评估和审查,达不到合理用能标准和节能设计规范要求的项目,不予审批。对重点用能企业,探索以单位增加值能耗、PUE值、服务器计算能效等指标对企业进行综合能效评估,对规模小、效益产出低、能耗较大的企业要限期整改。重点在、基站、电源、办公、驻地网等领域推进节能技术改造,到2015年力争建设50项节能示范工程。&&数据中心。鼓励采用仓储式、集装箱式数据机房等建设方式,提高数据中心整体能效;应用优化软件架构、采用等技术,提高IT设备利用率;利用自然冷热源、精确制冷技术、变频技术,减少空调用电量。
2013年2月工业和信息化部发布《关于进一步加强通信业节能减排工作的指导意见》,提出目标:"到2015年末,新建大型云计算 数据中心的能耗效率(PUE)值达到1.5以下。&&重点任务包括:出台适应新一代绿色数据中心要求的相关标准,确保新建大型数据中心的PUE值达到1.5以下,力争使改造后数据中心的PUE值下降到2以下。"
3、 规定发布:
2014年7月北京市人民政府办公厅发布《北京市新增产业的禁止和限制目录(2014年版)》,其中由市经信委制定的关于信息传输软件和信息技术服务业门类下明确规定:禁止新建和扩建数据中心,PUE值在1.5以下的云计算数据中心除外。
限令发布的主要原因
1、 政府采购倾向绿色数据中心
2014年5月,国家发展改革委、财政部、工业和信息化部、科技部发布了《关于请组织申报2014年云计算工程的通知》,要求:面向政务应用的公共云计算服务,云计算服务平台所用数据中心PUE(能耗指标)不高于1.5.面向重点行业的公共云计算服务,如:金融、交通、医疗、电商、教育、工业等重点领域提供具有行业特点的云服务,公共云服务平台所用数据中心PUE不高于1.5.
2、 引导数据中心建设和政府采购从传统架构向云架构转移
2013年9月,工信部确定首批基于政务云公共平台建设和应用试点示范地区的名单:包括18个省市(北京、天津、内蒙、黑龙江、安徽、福建、江西、山东、湖南、海南、贵州、云南、陕西、甘肃、青岛、深圳、哈尔滨、成都。
2014年9月,北京市经信委软件与信息服务处处长发表数据中心规划思路:对北京市区内对规模小、效益产出低、能耗较大的数据中心进行改造,发展云数据中心的业务。
3、 北京地区节能减排
2013年3月,北京市编制发布《2013年节能降耗与应对气候变化重点工作计划》,明确年度目标和工作重点。
2013年5月,北京市环保局、统计局、发展改革委及监察局联合印发了《北京市"十二五"主要污染物总量减排考核办法》,推进节能减排。
4、 京津冀一体化
2013年5月至2014年2月,中共中央总书记习近平数次提出京津冀一体化战略,强调京津冀一体化战略要上升到国家战略层面对待。
2014年3月,北京市规划委主任黄艳表示,目前北京、河北、天津正在联合做规划,把一部分首都溢出的,不符合"政治、文化、国际交往、科技创新中心"核心职能的产业疏解到周边。
2014年3月,河北省出台《关于贯彻落实习近平总书记重要讲话精神加快推动京津冀协同发展的意见》表示发挥石家庄、唐山、保定和廊坊的支撑作用,承接首都部分行政事业单位和产业的转移。
客户需求变化分析
北京地区IDC机房的主要客户分为两种:
1、 北京本地企业
2、 业务覆盖全国的大型互联网公司
其中如视频、游戏和大型综合信息类网站等对网络带宽要求较高的企业,以及对高级别机房需求较大的企业,都属于对北京机房有刚性需求客户,对北京机房的需求基本不会受限令的影响产生变化。
而其他对价格较为敏感的客户,其需求将可能向北京周边地区或骨干网节点城市转移。
限令对IDC产业链的影响
1、 短期内数据中心供应量仍然较为充足。
由于高PUE数据中心(大部分为低级别数据中心)建设受限,运营商和大型IDC服务商将根据客户需求量在北京继续新建绿色数据中心(大多数为高级别或大型数据中心)。同时,目前北京地区还存在大量在建和新投产数据中心。如:紫光云服务(北京)数据中心项目(一期),建筑面积为9671.44平方米;北京电信亦庄云计算数据中心,建筑面积约9万平方米;万国数据电子城数据中心,建筑面积约28800平方米; 国门数据中心,建筑面积为5000平方米。未来,由于大多数低PUE值的数据中心为高级别数据中心,低级别机房供应量将受到限制。一些以北京低级别机房需求为主的客户未来将不是各IDC服务商北京分公司的销售重点,这些客户可能转向其他分公司。
2、 未来北京地区数据中心市场整体竞争力提升。
大型互联网厂商越来越重视数据中心运营成本的控制,对绿色数据中心的需求日益提升。大型数据中心运营成本中占比较大的部分主要为电费,通常大型数据中心长期运营过程中电费可占比超过50%.限令的发布将加速北京地区绿色数据中心的发展。与其他网络骨干节点相比,北京地区IDC机房整体竞争力在未来2-3年将得到较大的提升。
3、 中小型服务商在北京和其他地区的业务机会将发生变化。
大部分中小型IDC服务商受资金、技术、地理环境、客户资源等诸多因素限制,短期很难具备建设PUE在 1.5以下的数据中心的能力。其在北京的业务基本依靠承包或代理其他IDC服务商机房。一方面,由于此类IDC服务商高端客户资源少于大型IDC服务商,其未来在北京地区的业务将受到负面影响。另一方面,因为有大量的客户将流向周边地区或网络骨干节点城市,中小型服务商在环北京地区和骨干网络节点城市业务机会将增多。
注:有能力建设低PUE数据中心的厂商包括电信运营商、大型第三方IDC企业和大型互联网企业。目前在中国境内的近千余个机房,PUE低值在1.5以下的仅占10%左右。所有者包括电信运营商(如中国电信北京亦庄数据中心、中国移动哈尔滨仓储式数据中心、中国联通北京黄村数据中心等)、大型第三方IDC企业(如鹏博士酒仙桥MD26模块等)、大型互联网企业(如百度M1数据中心、腾讯天津数据中心等)。
4、 北京地区新建数据中心投资成本增加,但单机柜运营成本将下降。
PUE与数据中心建设成本的关系:建设绿色数据中心主要投入包括1)数据中心规划咨询投入;2)制冷系统和设备投入;3)土地成本(取决于地理位置的选择)。
PUE与运营成本的关系:按照每机架每小时3KW用电量计算,电费成本(每日)=数据中心机架数*3KW/机架*24小时*1元/度(工业用电)*PUE .假设1个单体数据中心机架数为5000,则PUE每降低0.1,日平均电费成本将减少36,000元。
5、 数据中心设计和咨询公司在北京地区市场空间增大。
由于大部分国内厂商在绿色数据中心设计和咨询方面的能力有限,具有绿色数据中心设计和建设能力的企业,如一些大型的数据中心解决方案供应商,包括IBM、HP、Dell、施耐德和华为等厂商将受益。
中国IDC圈智库会员服务
中国IDC圈研究中心每月梳理与IDC产业相关的信息,包括政府公告、云计算厂商和IDC服务商动态等。由专业咨询师对IDC产业影响较大的动态信息进行分析。中国IDC圈研究中心作为IDC、云计算和数据中心领域最优秀的咨询研究机构,利用我们在行业内十年的积累以及独有的资源优势和行业洞察力,致力于帮助各公司决策者及时了解行业变化趋势,做出战略决策。
责任编辑:杨伟峰
关注官方微信:或微信号: 我们将定期推送IDC产业最新资讯
第十届中国IDC产业年度大典(IDCC2015)将于-7日在北京国家会议中心盛大开幕。以IDC+为核心的全新数据中心产业生态圈正在逐步建立,跨界合作,产业融合,开放共赢已成为行业发展的主旋律。
Copyright 2001 - 2013 Chinaitlab Group All Rights Reserved. 京公网安备14号}

我要回帖

更多关于 机房pue值的计算 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信