Удивительные, но настоящие: энергоэффективные системы охлаждения действующих и проектируемых ЦОД в России и за рубежом

Рынок систем кондиционирования для ЦОД особенный. С одной стороны, он весьма узкий, с другой — ​очень прогрессивный. Благодаря обилию теплоизбытков в дата-центрах у специалистов по системам кондиционирования есть простор для фантазии — ​как и куда именно отводить тепло и как его потом использовать. Предлагаем вашему вниманию обзор самых интересных и перспективных решений по охлаждению ЦОД, которые уже нашли место в жизни, а вскоре станут основой для новых, еще более прогрессивных проектов.

По разным сведениям, на долю центров обработки данных в мире приходится от 3 до 5% всей потребляемой человечеством электроэнергии. В то же время классические парокомпрессионные системы охлаждения потребляют около 30% мощности ЦОД. Таким образом, энергоемкость систем кондиционирования ЦОД — ​1% всей мировой электроэнергии — ​цифра весьма значительная, если учесть, что это лишь одна инженерная система одной-единственной отрасли жизнедеятельности человека. Этим и объясняется стремление сократить мощность холодильных систем до минимума.

Среди энергоэффективных технологий кондиционирования крупных ЦОД на сегодняшний день наибольшее распространение получили решения на основе свободного охлаждения. Ни одно строительство крупного ЦОД не обходится без предварительного технико-экономического анализа, в рамках которого рассматриваются различные варианты системы кондиционирования. И все чаще заказчики склоняются к применению фрикулинга взамен фреоновых кондиционеров.

Мировые гении энергоэффективности

Стремление компании Google к максимальной энергоэффективности известно во всем мире. Последние 10–15 лет едва ли не каждый новый центр обработки данных Google становится очередной вехой развития отрасли. А опубликованная несколько лет назад серия фотографий «Там, где живет Интернет» (одна из них представлена на рис. 1) вызвала немалый интерес специалистов по инженерным системам.

Компания Google одной из первых осознала, что на инженерную инфраструктуру ЦОД, а особенно на систему охлаждения, тратится непозволительно много энергии. И принялась за эксперименты.

Поначалу проекты предусматривали прямое и косвенное охлаждение серверов наружным воздухом. После этого в компании перешли к рассмотрению идеи сброса тепла в землю, моря и океаны. Например, появился дата-центр Google недалеко от города Хамины (Финляндия), построенный на месте бумажной фабрики на берегу Финского залива, за счет которого и охлаждаются машинные залы ЦОД.

Проект ЦОД Google в Южной Каролине (США) предусматривает использование для охлаждения подземных вод. По оценкам компании, в день из водоносного горизонта потребуется выкачивать 5,7 миллиона литров воды. Проект проходит стадию согласования с местными властями.

Самые последние разработки Google явно свидетельствуют, что не за горами эпоха жидкостного охлаждения ЦОД. В частности, новейшее серверное оборудование для выполнения расчетов в рамках технологий искусственного интеллекта имеет колоссальную удельную тепловую мощность. Она примерно в 8 раз выше мощности серверного оборудования, которое могло бы охлаждаться воздухом. Жидкостное охлаждение подразумевает непосредственный контакт вычислительных устройств и диэлектрического теплоносителя, что позволяет существенно улучшить теплообмен и повысить отводимую мощность.

Наконец, еще одна идея от Google — ​плавучие ЦОД. В сентябре 2016 года компания получила патент на это изобретение. Машинные залы плавучих ЦОД будут расположены на барже. Система охлаждения двухконтурная. Внутренний контур подготовленного хладоносителя будет охлаждаться за счет внешнего контура морской воды. Но главная особенность плавучего дата-центра — ​способ приведения его в движение. Для этого к барже будут прикреплены огромные воздушные змеи, которые за счет ветра, то есть без топлива и электроэнергии, смогут управлять скоростью и направлением движения дата-центра.

Идеей размещения центра обработки данных в море прониклись и в компании Microsoft. Причем в прямом смысле в море — ​на глубине 37,5 метра. 5 июня 2018 года было объявлено о том, что 12-метровая капсула погружена в Северное море возле Оркнейских островов (Шотландия) на 5 лет. Внутри капсулы расположены 12 стоек, максимальная мощность дата-центра составляет 240 киловатт.

Конструкция затопленного ЦОД подразумевает хорошую теплопередачу и быстрое рассеивание тепла в морской воде. Протесты экологов, заявляющих об опасности увеличения температуры моря, были отвергнуты достаточно быстро: капсула может нагреть воду вокруг себя, но ее вклад в повышение средней температуры моря не превысит даже миллиардных долей градуса.

Подводный ЦОД не имеет эксплуатирующего персонала и полностью управляется с земли. Чтобы избежать коррозии внутренних элементов и исключить негативное воздействие кислорода и водяного пара, внутри капсулы находится только азот. Инженеры Microsoft надеются, что предпринятые меры безопасности исключат риск поломок. В случае положительного исхода эксперимента в будущем планируется затапливать дата-центры, состоящие сразу из пяти таких капсул, то есть мощностью более мегаватта.

Примером использования холода глубинных вод и горных недр является ЦОД Green Mountain DC 1-Stavanger. Он расположен внутри скал одного из норвежских фьордов, в бывшем хранилище боеприпасов НАТО, законсервированном со времен холодной войны.

Источником холода для Green Mountain DC 1-Stavanger служит вода из глубоководного фьорда. На глубине 75 метров и ниже температура воды стабильна и составляет +8°C. Водозабор осуществляется с глубины 100 метров. Холодная вода подается в теплообменник, где охлаждает внутренний контур подготовленного хладоносителя, после чего сбрасывается обратно в залив. В машинном зале ЦОД установлены внутрирядные кондиционеры, охлаждающие воздух за счет хладоносителя.

Энергоэффективные дата-центры компании «Яндекс»

Одним из лидеров по реализации энергоэффективных систем охлаждения ЦОД в России является компания «Яндекс». Она прошла путь развития собственной ИТ‑инфраструктуры от одного сервера до десятка дата-центров, причем со временем компания научилась строить свои собственные центры обработки данных — ​со смелыми решениями и высокой эффективностью.

Первый опыт «Яндекса» по внедрению энергосберегающих технологий относится к 2008 году, когда компания построила ЦОД в подмосковной Ивантеевке на базе системы FFC — ​Full Free Cooling. Данная технология представляет собой косвенный фрикулинг с адиабатикой, а перенос тепла от внутреннего воздуха к наружному выполняется при помощи большого роторного теплообменника.

При наружных температурах ниже +22°C серверное оборудование охлаждается исключительно за счет наружного воздуха. При более высоких наружных температурах задействуется дополнительное охлаждающее оборудование. Внутренний воздух имеет температуру +37°C в горячей зоне и +24°C на выходе из системы охлаждения.

На тот момент технологии свободного охлаждения еще не были протестированы в России, реального опыта проектирования и эксплуатации фактически не было. Поэтому компания «Яндекс» сперва запустила первую очередь дата-центра в Ивантеевке (в 2008 году), а после занялась сбором данных и их обработкой. Только после этого в 2011 году в строй была введена вторая очередь объекта.

Как показал опыт, годовое энергопотребление системы свободного охлаждения оказалось вдвое ниже аналога на традиционных фреоновых кондиционерах. Сходное решение на базе технологии Full Free Cooling «Яндекс» применил и в своем очередном центре обработки данных в городе Сасово Рязанской области, запущенном в 2014 году (рис. 2).

Следующая ступень развития идеологии энергоэффективного охлаждения от «Яндекса» — ​переход на прямой фрикулинг. И здесь внимание заслуживает дата-центр «Яндекса» в Финляндии в городе Мянтсяле, первая очередь которого запущена в эксплуатацию в 2015 году. Собственно, одна из причин выбора именно этой локации — ​прохладный климат и возможность использования круглогодичного прямого фрикулинга.

На тот момент у «Яндекса» уже был многолетний опыт эксплуатации дата-центров в Ивантеевке и в Сасове, и, как отмечают в компании, это позволило для каждого нового проекта делать обоснованный выбор на базе накопленной информации, а не на основе маркетинговых данных из каталога. В финском центре обработки данных полностью отказались от дорогих и энергоемких традиционных кондиционеров в пользу 100%-ного режима свободного охлаждения. Коэффициент эффективности ЦОД PUE составил 1,1.

В ЦОД «Яндекса» в городе Мянтсяле наружный воздух проходит через секции фильтров, охлаждает серверное оборудование и выбрасывается обратно на улицу. В зимнее время вытяжной воздух частично рециркулируется для нагрева холодного уличного воздуха. В особо жаркие летние дни приточный воздух дополнительно охлаждается за счет распыления воды. Фактически это система прямого фрикулинга с адиабатикой (рис. 3). Раньше такие идеи обсуждались, но на практике распылять воду в воздух, который далее попадает в дорогостоящее вычислительное оборудование ЦОД, никто не решался.

Система охлаждения ЦОД занимает целый этаж, на котором помещения играют роль воздуховодов. Высота нагнетающего вентилятора достигает одного метра, и, чтобы перекрыть ими все сечение воздуховода, они устанавливаются матрицей — ​по три в высоту и еще больше в ширину. Стеной одной из венткамер является секция фильтрации. Размеры регулирующих заслонок также измеряются метрами.

Горячий коридор машинного зала изолирован и представляет собой большой воздуховод для отвода нагретого воздуха. Фишка финского дата-центра — ​использование вытяжного горячего воздуха для нагрева теплоносителя и его передачи в теплосеть города Мянтсяля.

Но для отопления района теплоноситель с температурой порядка 30°C не подойдет. С целью повышения температуры теплоносителя до необходимой температуры (55—60°C) использованы тепловые насосы. Таким образом, дата-центр, «ушел» от энергоемких фреоновых кондиционеров и мало того что сэкономил на охлаждении, так еще и обогрел близлежащий город.

Стоит отметить, что в машинном зале ЦОД фигурирует пусть и очищенный, но наружный воздух, дополнительно увлажненный в жаркие дни. С целью сохранения работоспособности серверного оборудования компания «Яндекс» провела его модернизацию, опираясь на результаты соответствующих исследований.

Кстати, технические характеристики некоторого серверного оборудования говорят о его работоспособности при температурах до +40°C. Далее требовалось обеспечить настолько качественный продув помещения, чтобы воздух в замкнутом пространстве не прогрелся до такой температуры.

Результатом расчетов и исследований стала уверенность, что набитый серверами машинный зал сможет работать на прямом фрикулинге не только в северных регионах, но и в климате Центральной России. Очередным объектом компании стал ЦОД во Владимире в микрорайоне Энергетик. Первая очередь владимирского дата-центра была запущена в сентябре 2017 года. Предварительный PUE этого ЦОД — ​1,07, что является самым лучшим показателем в России и одним из лучших в мире.

Основой охлаждения ЦОД «Яндекс» во Владимире также является технология свободного охлаждения. Вырабатываемое тепло может быть направлено на благо города, например на обогрев теплиц для выращивания овощей. Другие возможности применения низкопотенциального тепла рассматриваются в настоящий момент.

Центры обработки данных Сбербанка

Путь экспериментов, накопления информации и анализа статистических данных прошел и ПАО «Сбербанк». Первым и на тот момент самым мощным проектом стал ЦОД Сбербанка «Южный порт», открытый в 2011 году. Общая его площадь составила 16 000 квадратных метров, площадь машинных залов — ​5000 квадратных метров, что являлось максимальной величиной для дата-центров банковского сектора в Европе.

Кондиционирование ЦОД «Южный порт» осуществлялось по принципу свободного охлаждения с использованием установок Plate Exchanger Air Handling Units — ​пластинчатых теплообменников типа «воздух — воздух», выпущенных специально для данного проекта. Расчетная холодопроизводительность каждого теплообменника — ​550 киловатт, весь ЦОД обслуживают 28 установок. В жаркие дни дополнительно включается адиабатное охлаждение воздуха. Расчетный PUE не превышает 1,3.

Установки свободного охлаждения установлены на кровле здания. В машинные залы охлажденный воздух подается посредством воздуховодов, спускающихся с кровли на нужный этаж по фасаду.

Кстати, по этому же принципу чуть позже строился московский ЦОД компании DataPro. В качестве установок свободного охлаждения используются агрегаты EcoBreeze компании Schneider Electric мощностью 350 киловатт каждый. Рекламные проспекты производителя предусматривали их наземную установку и горизонтальный ввод воздуховодов в машинный зал ЦОД. Однако на практике было принято решение установить EcoBreeze на кровле и соединить их с машинным залом воздуховодами, проходящими по фасаду здания.

Отработав технологию свободного охлаждения на первом дата-центре, в конце 2017 года Сбербанк открыл второй, еще более мощный объект в «Сколково». На этот раз система охлаждения была выполнена по схеме прямого фрикулинга с рядом инноваций.

ЦОД Сбербанка в «Сколково» занимает 33 000 квадратных метров и включает в себя 5 модулей по 4 машинных зала. Охлаждение осуществляется вентиляционными установками (рис. 4) и до 330 дней в году работает в режиме свободного охлаждения. На случай жарких дней в работу включаются дополнительные фреоновые системы. Отводимое фрикулингом тепло используется для отопления офисной части здания.

Интересно отметить, что охлаждение ЦОД Сбербанка в «Сколково» реализовано с применением элементов искусственного интеллекта. В частности, объект имеет собственную метеостанцию, а программное обеспечение анализирует прогноз погоды и запасает холод на случай приближающейся жары. По данным Сбербанка, экономия за счет грамотного управления системой охлаждения составляет до 100 000 000 рублей в год на электроэнергии и еще 5 000 000 рублей в год экономятся на отоплении офисной части объекта.

Опыт других компаний

Системный интегратор КРОК использовал уже несколько подходов энергосбережения для своих заказчиков. Например, геотермальное охлаждение базовых станций. Температура земли на глубине от 30 до 100 метров составляет 6—10°C на протяжении целого года. Зимой скважины могут быть использованы тепловым насосом для обогрева помещений, летом — ​для сброса тепла от работающего серверного оборудования. Ориентировочный теплосъем составляет 50 ватт на один метр длины геозонда. Мощность базовых станций относительно невелика, поэтому проект обошелся малыми раскопками, но для крупных ЦОД, безусловно, потребовалась бы существенно большая длина подземных труб.

Другой пример — ​для одного из центров обработки данных в Сибири была реализована система подогрева воды для ТЭЦ, от которой, собственно, и запитан ЦОД. ТЭЦ получала воду из реки с температурой от 0 до +15°C с последующим догревом до +25°C. По факту реализации проекта частично этот нагрев был обеспечен теплом, которое отводилось из машинного зала ЦОД.

И еще один пример: самый мощный суперкомпьютер России «Ломоносов‑2», установленный в МГУ им. М. В. Ломоносова, имеет водяное охлаждение. Теплоноситель подводится в радиаторы, расположенные в непосредственной близости от вычислительных микросхем. При этом используются специальные трубки с бескапельными разъемами. В процессе охлаждения теплоноситель нагревается до 44°C и круглый год охлаждается за счет наружного воздуха в драйкулерах.

Использование тепла ЦОД

С годами на рынке ЦОД вырисовывается явная тенденция: тепло, выделяемое ЦОД, рассматривается не как что-то вредное, от чего следует избавиться, а как что-то полезное, что может послужить на пользу человеку. Рассмотренный дата-центр «Яндекса» с отоплением прилегающего города — ​лучший тому пример.

В целом же наиболее простым является решение с использованием тепла ЦОД для собственных нужд объекта. Такой подход не требует взаимосвязи с государством и свободен от бюрократических преград. К каждому крупному дата-центру прилегает собственная офисная зона, и именно она может быть обеспечена отоплением и горячей водой за счет тепловой энергии дата-центра.

Такие проекты еще не получили распространения в России, но они весьма популярны за рубежом. Например, система жидкостного охлаждения Iceotope для суперкомпьютера Хаддерсфилдского университета Великобритании отдает тепло в систему отопления самого университета. Английская компания WSP Group направила тепло от собственного коммерческого дата-центра для подогрева воды в близлежащем бассейне. Существуют проекты обогрева теплиц за счет ЦОД. Еще более популярны решения по нагреву приточного воздуха для вентиляции прилегающих офисных зданий.

В сфере утилизации тепла от центров обработки данных есть за что бороться. По данным компании DCD Intelligence, совокупная мощность всех дата-центров мира сравнима с энергопотреблением Великобритании. Дата-центры одного только Евросоюза запросто обогреют город-миллионник. Осознавая масштаб потенциальной выгоды, специалисты уже сегодня разрабатывают и тестируют различные решения по утилизации тепла.

Страной — лидером по масштабности «зеленых» технологий в сфере ЦОД следует признать, пожалуй, Нидерланды. Около 90% дата-центров этой страны уже используют ветряные электростанции для энергоснабжения ЦОД. Новый виток развития ожидается в ближайшем будущем: в Нидерландах планируется создать отходящие от крупных дата-центров тепловые сети для отопления близлежащих населенных пунктов.

Немалый потенциал использования тепла дата-центров имеют и российские объекты. Однако мировой опыт показывает — ​такие инициативы не по плечу одному или нескольким инвесторам. Основную роль в развитии альтернативной энергетики и систем утилизации тепла должно сыграть государство путем введения налоговых льгот, запуска стимулирующих правительственных программ, возможности коммерческого использования излишков тепла и электроэнергии. Нет сомнений, что подобные подвижки в законодательной базе существенно ускорят темпы развития энергоэффективных технологий для охлаждения ЦОД в России.

Юрий Хомутский, технический редактор журнала «Мир климата»

наши проекты
  • АПИК
  • Университет климата
  • Выставка «Мир климата»
  • АПИК-тест