数据中心耗能高噪音大如何破题?航天信息一招搞定

在某公司的机房内,刘主管焦头烂额地向王总报告最近公司机房的用电情况:“新业务导致服务器一直处于高负荷,最近几个月电费也十分高昂!”王总提出要赶快想出解决办法。

图片1.png

这时,刘主管想到,业内有同行上线了航天信息股份有限公司所属华迪计算机集团有限公司打造的液冷数据中心解决方案,据说降本增效效果十分显著。

图片2.png

刘主管向王总详细汇报了航天信息液冷数据中心解决方案的工作原理:将服务器部件浸泡在高绝缘的冷却液体中,液体与各发热部件直接接触带走热量,再通过二次循环系统冷却。这样一套解决方案,可以实现耗能低、噪音小、省空间等效果。

<span class=

图片4.png

刘主管又详细计算了一套对比数据:“具体计算下来,目前我们的数据中心有效功耗占比58.8%。液冷服务器散热效率比传统风冷高300多倍,还能免去机房空调,能够将无效功耗占比从41.2%能下降到8.3%左右,大大节约电能,还能节省占地面积。”

王总对这套方案的预期效果感到满意,并要求刘主管尽快制定一份改造计划,一个月内完工,正好可以赶上上级单位来检查节能优化工作。

图片5.png

20天后,航天信息液冷数据中心解决方案在王总的公司上线。刘主管对节能数据进行了测算,数据中心每年可节电53万度,按每度电0.8元计算,每年可节省电费近43万元。而且安全性、可靠性和稳定性都很高,设备维护成本还能进一步下降。王总对此十分满意。

图片6.png

不久后,上级单位到公司检查节能优化工作,王总向大家介绍了航天信息液冷数据中心解决方案的优势:我们的数据中心目前PUE值是1.09,比改造前的1.7,PUE值足足下降了0.61,既降低了能耗和成本,还节约了资源。

一位领导表示,这完全符合节能优化要求,应该给其他高能耗数据中心也推荐一下。

图片7.png

此后,在一次数据中心业务推进会上,一家公司表示正筹备建设一些边缘节点项目,当地气温高且湿度大,对环境适应性要求高,正在寻求合适的产品应用。

航天信息在现场的推介人员表示,航天信息的液冷边缘服务器能适用高温45℃、高寒-60℃、高温、高盐、高尘环境,完全可以满足企业需求。

图片8.png

“那么科研院校项目呢?院方对稳定性、低噪音都有很高要求。”会上又有人提问。

“航天信息液冷服务器采用全密闭铝合金外壳,故障率低、电磁辐射小,能有效杜绝信号泄露。由于没有风扇,机房噪音能控制在很低水平,能满足机关、科研、医院、学校等保密要求高和特殊工作场所的需要。”航天信息推介人员说。

大家都对航天信息液冷数据中心解决方案十分欣赏。王总“现身说法”,再次向大家推荐了这款低能耗、低噪音、省空间的解决方案。

图片9.png

随着移动互联网、人工智能、物联网等信息技术产业的高速发展,作为数据基础设施的数据中心规模不断扩大,航天信息可为各行业用户提供液冷数据中心解决方案,提供面向未来的绿色、节能、环保新型系列产品,助力国家“双碳”战略目标实现。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

Baidu
map