产品
行业

图片浏览完毕

重新浏览
推荐图片
8 / 9

Facebook首个自建数据中心:节能38%成本低24%

日期:2011-04-10     点击:333    评论:0    查看原图
Facebook在很酷的蓝色灯光上没吝啬钱












   北京时间4月9日消息,Facebook刚开放了其耗资千万美元建成的未来派的节能数据中心。该数据中心位于俄勒冈州普赖恩维尔,是Facebook自行建造的首个数据中心。
   它比标准数据中心节能38%,建造成本低24%。
   Facebook公开了数据中心的所有信息,作为全新Open Computer项目的一部分。此举的目标在于推进整个数据中心产业的发展,并逐渐弱化Google的最大优势。
   以下为这个数据中心的说明:
   1. 高效节能的电路系统减少了电能损耗
   这一数据中心使用专门的供电设备,能够使用277V交流电源,而不是普通的208V电源。这使得电能在进入建筑后能够直接传入服务器,而不需要通过交流到直流的转换,避免了这个过程中的能源损耗。
   2. 每个服务器的底座很平坦
   每个服务器的机箱都尽可能做的简单,没有螺丝、没有尖角,能够简单地从里面换出像主板这一的元件。它还比一般机箱要大得多,这样才能够装得下更高的散热器、更大的风扇,也就意味着需要更少的外界空气用于降温。数据中心的工作人员能够从机器前面的较为凉爽的走道进行布线,而不用站在温度高达100华氏度的机器后部进行操作。
   3. 服务器的本质核心部件是基础主板
   在服务器内部,由Intel和AMD生产的主板被拆分成了一些基本必需部件以节省成本。尽管它看上去很是复杂,实际上缺少很多一般主板具有的特征。
   4. 服务器三个为一组
   每个纵列有30个服务器, 每个设备机架上有90个。
   5. 电池柜提供备用电源
   在每组服务器之间,一套不间断电源(UPS)能够在能量不足时提供后备电源。
   6.使用外部空气的冷却系统--没有空调
   冷却通常是数据中心最大一笔成本之一。Facebook完全使用外部空气进行冷却,这意味着不需要消耗任何电能在空调上。空气从二楼的一组排气扇进入,通过过滤网,必要时需要经过“喷雾室”提高湿度。整个冷却系统都位于二楼,空气直接向下吹向服务器,无需风道。
   7.俄勒冈州的高原沙漠气候非常适合数据中心
   在最终决定选址普赖恩维尔前,Facebook考察了许多可能的地点。其高原沙漠地形使气候非常干燥但又很少酷热。全年最高温度为40.56摄氏度,而Facebook数据中心设计为耐43.3度高温。
   8.Facebook在很酷的蓝色灯光上没吝啬钱
   Facebook决定采用蓝色LED灯的原因是它们觉得这样很酷,与Facebook的蓝色标志非常相符,尽管每只灯需要0.07美元。同样的灯绿色的只需0.02美元一只。
   9.节能不仅可以省钱,还有益于地球
   Facebook数据中心的电能使用效率(PUE)为1.073,这意味着进入数据中心的电能实际上有93%被服务器利用,这大大低于1.5的标准PUE值。更少的能源消耗意味着燃烧更少的化石燃料,你也不用因为整天玩FarmVille而感到内疚了。 
更多>推荐图片
网站首页  |  关于我们  |  我们宗旨  |  我们使命  |  我们愿景  |  组织机构  |  领导机构  |  专家机构  |  管理团队  |  机构分布  |  联系方式  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  京ICP备050212号-1