|
|
В датацентростроении намечается революция?Сама идея — сначала строить где-то основу для ЦОДа, а потом везти ее заказчику, вместо того, чтобы несколько месяцев создавать дата-центр на его территории — проста и лежит на поверхности. Однако, первое публичное представление такого решения состоялось лишь недавно. Традиционные принципы Принцип построения традиционных ЦОДов длительное время оставался неизменным. Лишь с повышением требований к дата-центрам, ростом потребления энергии и тепловыделения, необходимости размещать вычислительное оборудование с большей плотностью растут и требования к инженерной инфраструктуре. Чтобы в ЦОДе все работало, его необходимо в первую очередь подключить к системе электроснабжения, причем желательно по двум линиям через два разных трансформатора, что в центре мегаполиса является большой проблемой. Далее необходимо установить источники бесперебойного питания для сглаживания скачков напряжения (поскольку вычислительные системы и СХД ЦОДов критичны к используемому напряжению) и перениманию нагрузки на краткосрочные отключения электричества. В случае длительных отключений должен использоваться дизель-генератор. В настоящее время на рынке присутствуют дизель-генераторы, дающие возможность ЦОДу функционировать в течение нескольких месяцев при обеспечении топливом. Кстати, переключение на резервные источники питания может и должно происходить не только при полном отключении электричества, но и при несоответствии его рабочим характеристикам (напряжения, частоты, формы сигнала). В задачи системы охлаждения входит поддержание рабочей температуры и влажности внутри стоек, подвод холодного воздуха, отвод горячего, обеспечение «несмешиваемости» горячего и холодного воздуха и эффективное использование потоков (чтобы горячий воздух не поступал в стойки, а холодный — в систему охлаждения). При этом необходимо обеспечить резервирование системы охлаждения как минимум по системе N+1, то есть кроме N кондиционеров, на 100% обеспечивающих охлаждение, должен иметься один резервный. Существуют различные схемы охлаждения: это использование горячих и холодных коридоров, а также система с фальшполом, когда холодный воздух поднимается по стойке охлаждая системы. При небольших выделениях тепла (примерно до 8кВт на стойку) вполне хватает воздушного охлаждения с использованием прецизионных кондиционеров. При больших значениях необходимо усложнять систему кондиционирования, а в некоторых случаях и переходить на жидкостное охлаждение с внешним охладителем (чиллером). Как уже упоминалось, кроме охлаждения требуется контроль влажности воздуха, так как сухой воздух малоэффективен для охлаждения и может стать причиной появления статического электричества, а высокая влажность способствует образованию конденсата. Для увлажнения воздуха используются парогенераторы. Осушение актуально, как правило, в случае, когда воздух берется с улицы (эта необходимость возникает, так как воздух, проходя раскаленные компоненты систем «выжигается»). В данном случае кроме осушения производятся операции очистки и нагрева, если температура на улице ниже рабочей. Наиболее эффективным, сохраняющим оборудование и безопасным для человека способом пожаротушения является газовый. Его смысл в том, что при возникновении очага возгорания инертный газ из баллонов вытесняет кислород из помещения ЦОДа и прилегающих помещений (зала с ИБП и кондиционерами). Должна обеспечиваться и физическая безопасность, в идеале это должно быть катастрофоустойчивая капсула, полностью защищенная от внешних природных воздействий, несанкционированных проникновений, терактов, электромагнитных помех и т.д. «Черный ящик» — «белая ворона»? 26 июля 2007 в Москве в Российской Академии Наук широкой аудитории был представлен первый в мире мобильный виртуальный центр обработки данных под кодовым названием Blackbox. Правда, первая презентация продукта прошла 17 октября 2006, но зато теперь вблизи, «вживую» можно было посмотреть и потрогать то, что обозначили как новую концепцию создания и эксплуатации ЦОД’ов. Вообще, подобного решения можно было бы ожидать от «более инфраструктурных» компаний, таких как APC и Liebert, но первым Sun стал. Проект Blackbox — это кодовое название. Реальное же, как говорит Sun, будет объявлено с началом коммерческих поставок. Поменяется и цвет — скорее всего, на белый, чтобы контейнер минимально нагревался от солнечных лучей. Контейнер Blackbox Как это работает? Принцип создания такого центра обработки данных прост: он сделан на основе стандартного 20-ти футового (6 м) контейнера, в котором размещается 8 стоек высотой 40U под серверы, системы хранения данных и сетевые устройства. Причем было заявлено, что используемые системы могу быть произведены другими компаниями — самое главное, чтобы они подходили под размеры стоек. Охлаждение в данном решении жидкостное, смысл в том, что горячий воздух, выходящий из системы попадает на теплообменник и, охладившись, направляется на входное вентиляционное отверстие следующей стойки с серверами. Для охлаждения нагретой воды используется внешний охладитель. Для максимальной величины отводимого тепла, 200кВт, емкость чиллера должна быть 60 тонн; для типичной 100кВт — 30 тонн. Причем в выборе чиллера, поскольку он сам по себе не является уникальным товаром, заказчику предоставляется свобода. Кроме регулировки температуры в контейнере предусмотрена и система контроля влажности. Схема охлаждения Blackbox Обслуживание систем может происходить в работающем ЦОДе, для этого стойка с серверами с помощью тележки выдвигается в проход. Как и в традиционном ЦОДе, система пожаротушения газовая. Поскольку данный контейнер предполагается перевозить и перегружать, предусмотрены амортизирующие пружины на основе скрученных в кольца тросов — это позволяет выдерживать среднее землетрясение или падение контейнера с высоты 15 см. Что при осмотре сразу бросается в глаза? То, что внешние коммуникации, разъемы, шланги для воды не имеют серьезной защиты. А хомуты, которыми прикреплены шланги, похожи на продающиеся в хозяйственных магазинах за пару десятков рублей. Однако, специалист Sun заверил, что влияние человеческого и животного фактора будут минимизированы дополнительными средствами защиты. Как и в случае традиционного ЦОДа, здесь необходимо предпринимать меры безопасности от воровства и повреждений, так как цена самого решения — 400-500 тыс. долл. плюс цена за оборудование, которая может легко превышать миллион долларов. При развертывании внутри уже имеющихся центров обработки данных, эта проблема должна быть уже решена. Но если оно развертывается за пределами зданий (например, на крыше), необходимо изучить возможности принятия дополнительных защитных мер физической безопасности: закрепление болтами, возведение ограждения, обеспечение охраны и т.п. Кому это надо? Модуль Blackbox позиционируется как основа для быстро-развертываемого центра обработки данных где и когда это требуется, и что экономия времени по сравнению с обычным ЦОДом, может доходить до 90%. Стоит сразу оговориться. Это решение хоть и является мобильным, но не может быть использовано где угодно. Во-первых, ему необходима определенная внешняя среда. Рабочий диапазон температур достаточно широк (от -18?С до +54?С), но если верхняя граница в России не достигается, то нижняя перекрывается с лихвой. Во-вторых, используемые серверы, системы хранения данных и т.д. иногда нуждаются в сервисной поддержке производителей, и навряд ли даже при финансовой заинтересованности производителя будет обеспечиваться необходимое время реагирования в случае выхода систем из строя. Кроме этого, в данном решении не могут быть использованы некоторые типы серверов, например мощные системы уровня предприятия — это связано прежде всего с их размерами и нестандартным жизнеобеспечением. По мнению Руслана Заединова, руководителя направления центров обработки данных компании «Крок», «проект Blackbox — первая попытка найти универсальное решение комплекса задач, связанных с созданием вычислительного комплекса и инженерной инфраструктуры центра обработки данных. Blackbox интересен, как минимум, тем, что разработчикам удалось грамотно разделить технологии на «внешние», исполнение которых зависит от существующей инфраструктуры заказчика, и «внутренние», которые в подавляющем большинстве ЦОД реализуются практически одинаково. С другой стороны, основные преимущества этого проекта — мобильность и минимальная зависимость от внешних условий — создают множество других вариантов для применения. Blackbox — это и мобильный вычислительный центр для поддержки «полевых» работ (например, по монтажу сложных технологических объектов или организации концертов и выставок), и пилотный ЦОД, обеспечивающий работу корпоративных приложений компании до момента построения «постоянного» вычислительного центра». Владимир Ливинский, руководитель отдела продаж бизнес-серверов компании «Ай-Ти» считает, что Blackbox займет свою нишу на рынке инфраструктурных решений ЦОДов. «Ключевые характеристики выбора подобного решения: мобильность за счет использования стандартного контейнера, защита оборудования от вибрации при транспортировке, возможность установки и запуска вне помещений. Обратная сторона — достаточно высокая удельная стоимость инфраструктуры. Sun Blackbox в несколько раз дороже, чем инфраструктура обычного ЦОДа. Это не удивительно, учитывая специфичность решения. Возможность покупки «пустого» контейнера позволит заказчику самостоятельно организовывать вычислительные ресурсы и дисковые поля с учетом политик доступности прикладных сервисов и выбора горизонтального или вертикального масштабирования для различных категорий задач. Такие дата-центры могут найти применение в качестве резервных и использоваться, например, для быстрой эвакуации дата-центра при чрезвычайном происшествии — в случае природного бедствия, при умышленном причинении ущерба и т.п.» По оценкам АРС, совокупная стоимость владения инфраструктуры на одну стойку составляет от 80 до 140 тыс. долл., причем в эту стоимость включены источники бесперебойного питания и кондиционеры (в отличие от решения Sun), а также стоимость содержания и обслуживания этих стоек в течение 10 лет (При расчете стоимости содержания цена электроэнергии учитывалась по американским тарифам, а они значительно выше российских). По оценкам самой «Ай-Ти», в зависимости от размера ЦОД и уровня сложности (от степени резервирования компонентов и пр.) стоимость инфраструктуры ЦОД на одну стойку может колебаться от 10 до 40 тыс. долл. (в решении Blackbox, получается, от 50 тыс. долл. на стойку без учета системы охлаждения, источников питания и т.д.). По мнению Владимира Ливинского, сравнение Sun Blackbox с традиционным ЦОД по площади не совсем уместно, поскольку это решения для разных задач. Вряд ли кто-то будет покупать Sun Blackbox для экономии площади. В любом случае, до этого случая ниша мобильных дата-центров пустовала. Соответственно, появляется и интерес заказчиков к подобной новинке. Вполне возможно, что в будущем созданием мобильных дата-центров могут заняться и другие компании. Это может привести к снижению цены решения, а, следовательно, и к большей конкурентоспособности мобильных ЦОДов по отношению к традиционным. Тагир Мустафин / CNews Analytics |