Вы используете устаревший браузер Установите более современный ¯\_(ツ)_/¯
поделиться
23.11.2018

Голодный ЦОД: как накормить и не разориться

Softline

Сколько стоит «содержать» дата-центр? В мире на момент создания этого материала существует порядка пятисот тысяч ЦОД, и владелец каждого из них назовет свою цифру расходов. «Вилка» получится приличная.

Масштабы дата-центров растут, и их потребности тоже меняются, но лишь в единицах случаев операционные издержки удается тем или иным образом сдерживать. Эффективное и экономичное потребление электричества, энергосберегающие технологии могут в буквальном смысле стать залогом существования ЦОДа, ведь более половины всех затрат уходит именно на электроэнергию.

Дорогое удовольствие

У различного железа разный «аппетит» и теплоотдача; помещения, в которых сервера стоят, тоже имеют свои особенности, в том числе по охлаждению; а если мы посмотрим еще дальше, то заметим еще и экологический аспект в функционировании дата-центров. Они выбрасывают колоссальное количество углекислого газа. В России на этом пока не заостряют внимания, но в ряде стран данный факт волнует общественность. Снизить энергопотребление - значит уменьшить и парниковые выбросы (а также деньги сохранить).

Кстати, о деньгах. Если раньше большая часть бюджета в проектах строительства ЦОД уходила на закупку, транспортировку и поддержку оборудования, мощность которого по сегодняшним меркам была совсем небольшой. Серверы потребляли немного, счета за энергию приходили мизерные. Все изменилось: оборудование значительно нарастило мощности, электричество ощутимо подорожало, масштабы проектов увеличились в десять раз.

Специалисты считают, что большинство дата-центров «съедает» гораздо больше, чем необходимо. Конечно, при строительстве новых ЦОДов уже применяются разнообразные меры по сокращению энергопотребления, тем более что зачастую в ту местность, где идет строительство, доставить нужные мощности сложно. А у вашей компании есть свой ЦОД? Планируется? Вы уже составили смету будущих затрат на электричество?

Электропотребление полезной нагрузки ЦОД колеблется (растет и уменьшается) в течение всего жизненного цикла ЦОД как площадки, зависит от развития технологий и конъюнктуры ИТ-рынка в целом, а также погоды и общего климата, от качества самой энергии и квалификации персонала, управляющего объектом. Колебание электропотребления сложно предугадать, но можно наблюдать постоянно: каждые сутки, неделю, месяц, год

Пара слов о PUE

Насколько значительны или малы потери мощности на обеспечение фукционирования активного железа, расскажет показатель PUE - Power Usage Effectiveness. Существует целый ряд методик его измерения. Самый простой рассчитывается в один клик: разделите общую мощность, съедаемую дата-центром, на ту, которую потребляет именно ненасытная серверная часть. Если потери на инженерную инфраструктуру составляют 0% - это идеальная ситуация, и PUE будет равен единице. Значение в пределах от 1 до 3 - норма для большинства ЦОД. Кроме того, у PUE важно определить пиковое значение, достигаемое в экстремальных условиях, например, в большой мороз.

В целом, это весьма относительная метрика, хоть и считается ключевой. PUE бывают годовыми, среднемесячными и моментальными и на расчет зачастую влияют дополнительные коэффициенты - например, затраты на центральные инженерные системы зданий, в котором стоят сервера, или на устройства для резервного копирования, которые тоже любят электричество.

Снижаем энергопотребление

Меры по рациональному использованию ресурсов лучше принимать как можно раньше (то есть еще на этапе проектирования дата-центра), но и модернизация существующих объектов вполне возможна. Вот общий список возможных шагов:

  • Внедряйте технологии виртуализации и высокоплотные блейд-сервера, чтобы ЦОД производил только полезную работу. Загружайте оборудование по полной или отключите его!
  • Активно управляйте приложениями, балансируйте нагрузку.
  • Применяйте системы измерения, контроля, мониторинга расхода электроэнергии и PUE в ЦОДе, позволяющие моделировать изменения инженерной инфраструктуры с прогнозированием результатов.
  • Совершенствуйте систему охлаждения. По возможно применяйте фрикулинг, уходите от общепериметрального охлаждению к более локальному модульному, зонируйте ЦОД по разным признакам, соразмерно нагрузкам и плотности мощности. Контролируйте системы кондиционирования динамически.
  • Не стройте ЦОД там, где нет возможности подключиться к сетям высокого напряжения. Рассмотрите вариант строительства собственного объекта генерации (оправдано для масштабных ЦОДОв).
  • Выбирайте источники бесперебойного питания от ведоров-флагманов, предлагающих продукты с широкими возможностями смены режимов.

Используйте только необходимое в конкретный момент оборудование во всех частях ЦОДа, моментально отключая или даже выводя его из эксплуатации, чтобы ничего не простаивало и не функционировало вхолостую. Все вышеперечисленные меры способствуют сокращению энергопотребления и тепловыделения в дата-центр на 15-30%.

Контролировать энергоэффективность своего ЦОДа компания может как самостоятельно, так и с помощью подрядчика-интегратора, предоставляющего услуги профессионального управления. Это может быть дороже, но в долгосрочной перспективе эффективнее и с предоставлением гарантии. Проведя аудит площадки, подрядчик предоставит отчет и заключение о возможных мерах по улучшению эффективности потребления ресурсов.

Пример

Приведу небольшой пример повышения энергоэффективности. В одном из первых ЦОДов в РФ, построенном еще в начале двухтысячных, требовалось разместить дополнительно 10 серверных стоек с общим потреблением 100 кВт. Но электромощности залов были уже ограничены, как и площадь под размещение новой ячейки.

Для решения проблемы было произведено обследование инженерной инфраструктуры, которое выявило, что кондиционеры находятся в режиме ежесуточной ротации с низким порогом входа горячего воздуха; нагревательные пароувлажнители стоят в каждом кондиционере; блоки вентиляторов - без регулирования скорости от зависимости нагрузки; очень хорошие, эффективные и дорогие чиллеры работают на устаревший график холодоснабжения 7-12°С; коридоры не имеют герметизации; в половине серверных шкафов не заглушены неиспользуемые юниты и т.д.

Мы предложили компании меры модернизации с целью повышения энергоэффективности, и вот что сделали:

  • установили регуляторы частоты вращения вентиляторов, неэффективную ротацию каждые 24 часа сменили на постоянную работу в совместном режиме с неполной нагрузкой;
  • 50% изначально ненужных пароувлажнителей убрали, а взамен 50% других установили ультразвуковые;
  • график холодоносителя установили на значение10-15°С;
  • в стойках установили заглушки;
  • сделали герметизацию коридоров, что повысило вход горячего воздуха на кондиционеры.

В целом одни только модернизации по климату принесли + 70 кВт электроэнергии.

Вторым шагом стала модернизация электросистем (ИБП, электроосвещения, распределение), которая также выделила дополнительные необходимые мощности.

Отмечу, что если бы компания изначально реализовала проект на более эффективном оборудовании, с продуманными схемами климата и предписаниями по дальнейшей эксплуатации, то залы имели бы на 20% больше запаса площади для размещения серверных шкафов.

На любые вопросы ответит Петр Царьков, менеджер по продажам решений и развитию бизнеса Департамента инфраструктурных решений Softline Petr.Tsarkov@softlinegroup.com

теги

рекомендуем
Как сократить время загрузки веб-сайта на 30% и увеличить лояльность пользователей

Как сократить время загрузки веб-сайта на 30% и увеличить лояльность пользователей

Искусственный интеллект vs экология

Искусственный интеллект vs экология

Почему отрасли ИБ нужны DevSecOps-инженеры

Почему отрасли ИБ нужны DevSecOps-инженеры

Метавселенная — определение, технологии и вызовы

Метавселенная — определение, технологии и вызовы

Мы используем cookie-файлы Cookie

Продолжая использовать данный веб-сайт, вы соглашаетесь с тем, что группа компаний Softline может использовать файлы «cookie» в целях хранения ваших учетных данных, параметров и предпочтений, оптимизации работы веб-сайта.