Обзор конференции ЦОД 2013 (ЦОДы ищут резервы эффективности)

8-я ежегодная международная конференция «ЦОД-2013», организованная журналом «ИКС», показала, что о PUE, надежности и себестоимости сервисов ныне думают и крупные, и небольшие дата-центры. Российская индустрия ЦОДостроения наращивает не только квадратные метры серверных залов, киловатты и мегаватты потребляемого электричества, но и квалификацию специалистов и эффективность использования всех ресурсов.

Квалификация проектировщиков и строителей дата-центров растет не только с опытом выполнения новых проектов (а их количество и размеры, несмотря на отсутствие дефицита на рынке услуг ЦОДов, продолжают расти), но и благодаря образовательным программам небезызвестного Uptime Institute, который за прошедший с предыдущей конференции год открыл свое подразделение в России. Как рассказал управляющий директор Uptime Institute Russia Алексей Солодовников, число российских обладателей сертификатов проектировщиков дата-центров Accredited Tier Designer (ATD) достигло 60 (и по их числу мы по-прежнему уступаем только США), а сертифицированных специалистов Accredited Tier Specialist (ATS) - 25. Причем по итогам последнего учебного курса ATD, проведенного в Москве, успешно сдали экзамены и получили сертификаты абсолютно все слушатели, тогда как обычно их доля составляет порядка 70%.

Так что в принципе проектировать и строить дата-центры по всем правилам у нас уже умеют (или как минимум знают, как это делать), и на повестку дня выдвигается проблема столь же правильной эксплуатации построенных дата-центров, обеспечивающей его эффективную и бесперебойную работу. Этой проблеме было посвящено представленное на конференции исследование "Организация эксплуатации и причины отказов в ЦОД", совсем недавно выполненное iKS-Consulting. Правда, как отметил управляющий партнер iKS-Consulting Константин Анкилов, в ходе опроса владельцев дата-центров и специалистов, занимающихся их эксплуатацией, не задавался самый интересный вопрос -- о частоте отказов ЦОДов, поскольку было ясно, что это "коммерческая тайна", но многие из имевшихся почти четырёх десятков вопросов были довольно "деликатными", так что исследование дает достаточно реалистичное представление о ситуации в российских дата-центрах. В частности, оказалось, что большинство сбоев в ЦОДах не приводит к их полному выводу из строя (49% опрошенных считает, что катастрофы происходят лишь в 10% случаев), то есть многие специалисты, ответственные за эксплуатацию дата-центров, считают свои ЦОДы достаточно надежными системами, которые не имеют единых точек отказа и могут продолжать функционирование даже в случае неполадок в отдельных подсистемах. 

Главной причиной отказов в российских ЦОДах является человек (и этим мы ничем не отличаемся от всего остального мира): почти половина опрошенных считает, что как минимум в 80% случаев отказов в дата-центре виноват тот или иной специалист - сотрудник службы эксплуатации, специалист сервисной организации, проектировщик ЦОДа. Кроме того, исследование показало, что в 39% случаев в сбоях виноват сам персонал службы эксплуатации дата-центра, а в 52% случаев вину в случившемся делят персонал ЦОДа и сервисный подрядчик, ответственный за обслуживание того или иного оборудования ЦОДа. Минимизировать проблему у нас пока пытаются главным образом повышением квалификации персонала, но уже растет понимание того, что необходимо максимально формализовать все процедуры работы собственной службы эксплуатации и все процедуры взаимодействия с сервисными подрядчиками. Это поневоле будут вынуждены сделать те дата-центры, которые хотят получить сертификат Uptime Institute на службу эксплуатации (Operational Sustainability), а о таких планах заявляют сейчас и те ЦОДы, которые пока находятся на этапе сертификации проекта. 

Формализация процедур и полное документирование работы всех систем ЦОДа и всех работающих приложений очень актуальны в свете все более возрастающей сложности российских дата-центров. Усложнение ЦОДов особенно ярко видно на примере изменения моделей построения сетей дата-центров. Как рассказал руководитель направления продаж решений для ЦОД компании Cisco Олег Коверзнев, в большинстве российских ЦОДов сети пока построены по традиционной трехуровневой модели (ядро--распределение--доступ) и управляются такие дата-центры на уровне отдельных устройств, что часто приводит к сбоям. Но такая модель уже не соответствует требованиям к работе современных приложений и особенно она не соответствует требованиям технологии виртуализации. Так что те дата-центры, которые хотят оказывать облачные сервисы, должны будут перейти на более современную модель построения сети с использованием матрицы коммутации, позволяющую управлять не отдельными устройствами и портами, а логическими виртуальными ресурсами дата-центра с использованием централизованных политик. Такая модель позволяет в достаточно широких пределах масштабировать дата-центр, строить распределенные ЦОДы, управлять ими как единым централизованным ресурсом и обеспечивать перемещение виртуальных машин не только в пределах одной стойки, но и между дата-центрами, расположенными даже в разных странах мира. Ну а на горизонте уже следующий этап эволюции сетей - программируемые сети SDN (software defined networks), в которых уже сами приложения будут определять состояние сети и ее функции по обслуживанию тех же приложений. 

Все это пока в достаточно отдаленной перспективе, и в ближайших планах производителей -- стандартизировать отдельные компоненты дата-центров и создать стандартизированные и достаточно автономные блоки, из которых эти дата-центры могут строиться. Например, компания Rittal предлагает несколько вариантов законченных модульных решений RiMatrix S для инженерной инфраструктуры дата-центра на базе модулей Single 6 и Single 9, в состав которых входят серверные и сетевые 19-дюймовые стойки, системы электроснабжения, охлаждения и мониторинга. Как отметил руководитель технического проектного отдела Rittal Михаэля Николаи, построение дата-центра из стандартизированных готовых модулей позволяет одновременно обеспечить надежность работы ИТ-инфраструктуры, сократить затраты на его построение и обслуживание и получить возможность масштабировать дата-центр по мере необходимости. Особенно хотелось бы отметить проработанность технического решения модулей Single 6 и Single 9 с точки зрения энергоэффективности: по заявлению Rittal, коэффициент PUE для системы RiMatrix S составляет 1,1, и это не расчетное, а измеренное значение в реально работающем дата-центре в условиях даже неполной загрузки. Причем, как отметил М. Николаи, система RiMatrix S уже прошла предварительную сертификацию в организации TUVRheinland, что должно облегчить процедуру полной сертификации ЦОДа в том же Uptime Institute. 

Курс на сертификацию своих объектов в Uptime держит, например, компания DataPro, строящая коммерческие дата-центры. Как рассказал ее генеральный директор Алексей Солдатов, первый ЦОД DataPro уже построен в Твери (его официальный ввод в эксплуатацию должен состояться 1 октября с.г.). Его общая подведенная мощность составляет 4,5 МВт, он содержит 4 серверных зала по 100 стоек в каждом с выделенной электрической мощностью от 5 до 20 кВт на стойку. В инженерных системах дата-центра используются традиционные проверенные временем решения, а привлекать клиентов DataPro собирается не только ценами (тверское электричество оказалось существенно дешевле московского), но также надежностью работы ( DataPro собирается сертифицировать в Uptime на уровень Tier III и проект, и саму площадку, и систему эксплуатации ) и большим ассортиментом сервисов, в том числе услуг по технической поддержке заказчиков (так что последним и не придется ездить в Тверь на "Сапсане", а также на любом другом виде транспорта). Кроме того, DataPro строит крупный ЦОД в Москве (проектируемая мощность 25 МВт), первую очередь которого планируется запустить в середине 2014 г. (и он тоже претендует на сертификацию в Uptime на уровень Tier III).

В общем, в очередной раз можно констатировать, что рынок дата-центров в России продолжает поступательное развитие. Уже достигнут достаточно высокий уровень проектирования и строительства ЦОДов и пришло понимание важности сохранения грамотно построенного дата-центра путем его столь же грамотной и экономически эффективной эксплуатации. Осталось "только" максимально автоматизировать все процессы в ЦОДе, по возможности удалив из него "самое слабое звено" в виде человека, но это задача, по всей видимости, будет решена не в самом ближайшем будущем.

Источник

Прикрепленные документы

  1. "ЦОД - НЕДОРОГО!" или Истории командо- образования (1,1 МБ) Загрузок: 693
  2. 8,5 недель: опыт создания небольших ЦОД высокой надежности (4,7 МБ) Загрузок: 554
  3. Cisco UCS Director - автоматизируем управление конвергентными стеками в ЦОД (2,2 МБ) Загрузок: 682
  4. DataPro – сеть дата-центров для решения любых задач (1,2 МБ) Загрузок: 670
  5. Hi-End массивы НР для дата-центров (923,8 кБ) Загрузок: 1054
  6. STULZ CyberCool 2 – новое поколение высокоэффективных чиллеров для дата-центров (1,6 МБ) Загрузок: 1004
  7. Выбор коммерческого дата-центра для размещения бизнес-критичной инфраструктуры компании (458,2 кБ) Загрузок: 548
  8. Инфраструктура ЦОДов ОАО «Татнефть». Как успеть за изменениями в холдинге и быть эффективным? (2,8 МБ) Загрузок: 581
  9. Использование теплового насоса для отопления офисной части ЦОД. Возможность применения и эффективность использования (1,6 МБ) Загрузок: 4954
  10. Исследование причин отказов в ЦОД. Пути снижения рисков (166,4 кБ) Загрузок: 585
  11. Кабельные системы для подключения интегрированных серверных платформ (1,5 МБ) Загрузок: 1251
  12. Как защитить свои данные в чужом ЦОДе? (946,7 кБ) Загрузок: 596
  13. Какой IQ у Вашего ЦОДа? Power IQ! (2,7 МБ) Загрузок: 583
  14. Катастрофо устойчивое облако: опыт построения метрокластера (1,2 МБ) Загрузок: 656
  15. Кейс: миграция ЦОДа с жесткими требованиями по обеспечению непрерывности бизнес-процессов (227,4 кБ) Загрузок: 903
  16. Легенды и мифы Uptime Institute (342,7 кБ) Загрузок: 1401
  17. Масштабируемая ИТ-инфраструктура для ЦОД. Готовые решения (882,5 кБ) Загрузок: 626
  18. Методология модернизации инженерной инфраструктуры существующего ЦОД. Ключевые показатели эффективности модернизации ЦОД на практических примерах (1,4 МБ) Загрузок: 748
  19. Модели дополнительных источников доходов для облачных провайдеров. SLA, защита и акселерация WEB (2,4 МБ) Загрузок: 650
  20. Новинки, которые работают (2,2 МБ) Загрузок: 498
  21. Новые идеи в построении инженерной инфраструктуры ЦОД (1,5 МБ) Загрузок: 949
  22. Обзор новых решений для Дата-центров внешнего исполнения (1,7 МБ) Загрузок: 584
  23. Обзор продуктовых решений для ЦОД от Seagate Technology. Выбор подходящего продукта под поставленные задачи (2,4 МБ) Загрузок: 521
  24. Облака без границ. Преимущества комплексного решения LinxCloud (IaaS) для бизнеса на растущем рынке России и за рубежом (873,4 кБ) Загрузок: 571
  25. Облачная практика ВГТРК (825,1 кБ) Загрузок: 743
  26. Опыт построения центра высок- опроизводительных вычислений в ОАО «ЦНИИ «Буревестник» (1,5 МБ) Загрузок: 524
  27. Особенности применения модульных ИБП для защиты электропитания ЦОД (3,0 МБ) Загрузок: 821
  28. Особенности размещения ЦОД в реконструируемых зданиях (5,7 МБ) Загрузок: 1152
  29. Особенности создания катастрофо- устойчивых центров обработки данных (1,9 МБ) Загрузок: 890
  30. От сложного к простому. ЦОД как конструктор (5,9 МБ) Загрузок: 1870
  31. Перспективы развития сетевых решений для ЦОД (2,8 МБ) Загрузок: 569
  32. Пожары в ЦОД. Миф или реальность (1,2 МБ) Загрузок: 0
  33. Построение ЦОД: советы бывалого (5,1 МБ) Загрузок: 672
  34. Построение энергоэффективных систем бесперебойного питания для энергоснабжения критичных потребителей на базе оборудования GE Digital Energy (1,7 МБ) Загрузок: 791
  35. Правило лишней мили в проектировании и создании центров обработки данных (ЦОД) (4,5 МБ) Загрузок: 1551
  36. Практический опыт построения регионального ЦОД на примере ЦОД Правительства Москвы (8,1 МБ) Загрузок: 827
  37. Практический опыт создания и эксплуатации мобильных ЦОД мощностью свыше 100 кВт (1,7 МБ) Загрузок: 1636
  38. Преимущества и недостатки различных компоновок ИТ-инфраструктуры (1,1 МБ) Загрузок: 658
  39. Применение дизель-роторных ИБП для банков (2,5 МБ) Загрузок: 1701
  40. Противопожарная защита ЦОД - как получить оптимальное соотношение цены/качества? (3,7 МБ) Загрузок: 1582
  41. Пути повышения точности измерения и варианты хранения данных физического мониторинга ЦОД (3,4 МБ) Загрузок: 710
  42. Различные подходы к решению задач по противопожарной защите ЦОД и их инфраструктуры (949,3 кБ) Загрузок: 1165
  43. Реальный опыт. 3 года в облаке (1,1 МБ) Загрузок: 532
  44. Системы питания постоянного тока 400В для центров обработки данных и телеком- муникационных центров (2,2 МБ) Загрузок: 1045
  45. Создание «зеленых» дата-центров для самой большой в мире национальной системы идентификации (1,5 МБ) Загрузок: 1116
  46. Стандартизация ЦОД - путь к уменьшению затрат (2,8 МБ) Загрузок: 0
  47. Унифицированный доступ к корпоративным приложениям на базе технологий Citrix (1,0 МБ) Загрузок: 1606
  48. Физическая безопасность как путь защиты персональных данных (2,8 МБ) Загрузок: 698
  49. ЦОД Tier III, сеть ЦОД, виртуализация, «облака»… Этап выбора и весы Гардана (1,5 МБ) Загрузок: 1086
  50. ЦОД как драйвер облачных сервисов (581,0 кБ) Загрузок: 824
  51. ЦОД Центрального Банка Армении как инфраструктурный ресурс финансовой системы страны (2,8 МБ) Загрузок: 2029
  52. ЦОД-интеллект - комплексный сервис для облачных приложений размещенных в дата-центре на примере электронных услуг для города Москвы (957,8 кБ) Загрузок: 1078
  53. Экономический эффект от внедрения фрикулинга с учетом климатического региона ЦОД (1,1 МБ) Загрузок: 1299
  54. Энергосберегающее серверное оборудова- ние для ЦОД (4,9 МБ) Загрузок: 909
  55. Эффективные методы организации проектирования и строительства современных ЦОД. Практические примеры реализованных подходов к управлению проектами (312,2 кБ) Загрузок: 1016

Комментарии

Ваше имя:

E-mail:  (на сайте не показывается)

Введите код с картинки: