Как использовать «дармовое» тепло ЦОДов?

Поскольку запросы на вычислительные мощности растут с каждым годом, Google, Amazon, Microsoft, Facebook  и прочие вендоры активно строят новые датацентры. При этом, хотя производительность процессоров  с каждым новым поколением кардинально увеличивается, общее энергопотребление датацентров также растёт.

Не так давно представители Google сообщили, что в год корпорация потребляет около 2,26 тераватт-часов электроэнергии. Именно столько необходимо для снабжения 200 тысяч среднестатистических домохозяйств. Однако практически вся подведенная к серверам электроэнергия в конечном итоге превращается в тепло. Иными словами, огромный ЦОДы, потребляемая мощность которого достигает нескольких мегаватт, фактически представляет собой аналог ТЕЦ.

Среди трендов последних лет можно отметить повышение мощности выделяемого тепла на серверную стойку в 2 и даже 3 раза.

На долю ЦОДов приходиться около 1% всего мирового расхода электроэнергии. И только 40—45% энергии непосредственно идет на поддержание работы системы, а остальное требуется для охлаждения серверов. В результате счета за электроэнергию в расходах IT- компаний могут достигать 30% всех издержек.

Производители полупроводниковых компонентов пытаются снижать энергопотребление чипов за счёт перехода на новые, более миниатюрные технологические процессы. Но поскольку число транзисторов в каждом новом поколении процессоров увеличивается, то их общая рассеиваемая тепловая мощность не только не уменьшается, но даже слегка растёт.

По словам Романа Осадчего, начальника отдела продуктов APC и первого инженера в Украине, сертифицированного Uptime Institute, среди трендов последних лет можно отметить повышение мощности выделяемого тепла на серверную стойку в 2 и даже 3 раза. Сегодня одна стойка может потреблять до 15-18 кВт энергии, что в конечном счёте равносильно обогревателю аналогичной мощности.

Проблема состоит в том, что тепло, выделяемое вычислительным оборудованием, приходится компенсировать холодным воздухом от чилеров или других источников, ведь в противном случае серверы перегреются и просто выйдут из строя. В итоге на выходе вытяжной трубы ЦОДа температура воздуха составляет всего 25-30°С. В принципе, этого достаточно для обогрева прилягающих к ЦОДу помещений, например здания, где сидит служба техподдержки, охрана и т. д. К сожалению, в других целях «дармовое» тепло ЦОД в мировой практике практически не используется.

Одним небольшим центром обработки данных из 2-3 десятков стоек вполне возможно отапливать средних размеров жилой дом.

Возможно ситуация изменится после того, как американская организация ASHRAE, которая устанавливает стандарты температуры и влажности для центров обработки данных, в очередной раз поднимет допустимый температурный лимит. В 2008 году в качестве рекомендуемого верхнего предела она установила температуру в +27°С. Если этот лимит будет поднят до +37°С (а эксперты такой вариант не исключают), или даже выше, то система охлаждения для большинства датацентров вообще не понадобятся, а температура воздуха на выходе значительно возрастёт. Это позволит использовать его для нагрева, к примеру, водяного теплоносителя с целью отапливания зданий зимой и подогрева горячей воды летом.

Впрочем, даже температуры воздуха +27°С хватит для обогрева дома, если он будет находится непосредственно над ЦОДом. Год назад Microsoft вместе с Виргинским университетом  опубликовала свой доклад, в котором приводятся расчёты, что одним небольшим центром обработки данных из 2-3 десятков стоек вполне возможно отапливать средних размеров жилой дом. Серверы при этом предлагается размещать в подвальном помещении дома, сами же датацентры придется обслуживать удалённо. А вот в компания Academica придумала способ решить сразу две проблемы – экономии на охлаждении серверов и нехватка тепла в домах в зимний период. Она решила просто направить избыточное тепло на обогрев домов и разместила ЦОД в бомбоубежище в центре Хельсинки. Его тепло нагревает трубы системы центрального отопления. Это позволило экономить около 375 тыс. евро в год. А тепла от дата-центра хватило, чтобы обогреть около 500 частных домов.

Если нельзя использовать тепло, значит надо минимизировать его потери

Последние стандарты ASHRAE рекомендуют охлаждение без применения компрессоров, то есть фрикулинг (free cooling). Однако его полноценное использование возможно далеко не во всех странах. Наиболее эффективен он в регионах с прохладным морским климатом, которому свойственны небольшие перепады температуры зимой и летом. К таким странам относятся Дания, Финляндия, Швеция, Норвегия, Ирландия, Великобритания и ряд других. Например, в минувшем году корпорация Google открыла новый датацентр в Финляндии (см. видео), который расположен в пределах город Хамина, где среднегодовая температура — несколько градусов выше нуля (по Цельсию). Для охлаждения оборудования здесь можно использовать обычный воздух.

По словам представителей корпорации, проект ЦОДа получился достаточно дорогой, однако ожидается, что все затраты можно будет перекрыть за счет относительно низкого энергопотребления датацентра. Специалисты утверждают, что этот датацентр вообще можно назвать одним из наиболее энергоэффективных.

Есть сведения, что Facebook также намеревается построить собственный датацентр в скандинавском регионе, скорее всего в Швеции. Климат здесь тоже очень прохладный, так что и Facebook сможет экономить электроэнергию.

А вот в Украине построить энергоэффективный ЦОД достаточно сложно. По словам Романа Осадчего, при выборе системы охлаждения ЦОД (фрикулинг или нет) рекомендуется отталкиваться от температурного диапазона за последние 20 лет. В Украине он составляет от -40С зимой до +40С летом. Таким образом, фрикулинг здесь можно использовать лишь несколько месяцев в году.

Читайте также:

Як і навіщо Facebook обігріває житлові будинки

Перший в світі плавучий дата-центр

Украинские облака и ЦОД — исследование от IDC и De Novo

Микропроцессор за $5, роботы для заблудившихся пассажиров и пена из золота — новости пятницы