Центр обработки данных — это здание , выделенное пространство внутри здания или группа зданий [1], используемых для размещения компьютерных систем и связанных с ними компонентов, таких как телекоммуникации и системы хранения данных . [2] [3]
Поскольку ИТ-операции имеют решающее значение для непрерывности бизнеса , они обычно включают избыточные или резервные компоненты и инфраструктуру для электропитания , соединений для передачи данных, контроля окружающей среды (например, кондиционирование воздуха , пожаротушение) и различные устройства безопасности. Крупный центр обработки данных — это предприятие промышленного масштаба, потребляющее столько же электроэнергии, сколько небольшой город. [4] Оценочное мировое потребление электроэнергии центрами обработки данных в 2022 году составило 240–340 ТВт·ч , или примерно 1–1,3% от мирового спроса на электроэнергию. Это не включает энергию, используемую для майнинга криптовалют, который, по оценкам, составит около 110 ТВт·ч в 2022 году, или еще 0,4% от мирового спроса на электроэнергию. [5] МЭА прогнозирует , что потребление электроэнергии центрами обработки данных может удвоиться в период с 2022 по 2026 год. [6] Высокий спрос на электроэнергию со стороны центров обработки данных, в том числе со стороны криптомайнинга и искусственного интеллекта , также увеличил нагрузку на местные электросети и повысил цены на электроэнергию на некоторых рынках.
Центры обработки данных могут значительно различаться по размеру, требованиям к питанию, избыточности и общей структуре. Четыре общие категории, используемые для сегментации типов центров обработки данных, — это локальные центры обработки данных, объекты размещения оборудования, гипермасштабные центры обработки данных и периферийные центры обработки данных. [7]
Центры обработки данных берут свое начало в огромных компьютерных залах 1940-х годов, типичным примером которых является ENIAC , один из самых ранних примеров центра обработки данных. [8] [примечание 1] Ранние компьютерные системы, сложные в эксплуатации и обслуживании, требовали особой среды для работы. Для соединения всех компонентов требовалось много кабелей, и были разработаны методы их размещения и организации, такие как стандартные стойки для монтажа оборудования, фальшполы и кабельные лотки (устанавливаемые над головой или под фальшполом). Один мэйнфрейм требовал большого количества энергии и должен был охлаждаться, чтобы избежать перегрева. Безопасность стала важной — компьютеры были дорогими и часто использовались в военных целях. [8] [примечание 2] Поэтому были разработаны основные принципы проектирования для контроля доступа в компьютерный зал.
Во время бума микрокомпьютерной индустрии в 1980-х годах пользователи начали устанавливать компьютеры повсюду, во многих случаях практически не заботясь об эксплуатационных требованиях. Однако, по мере того, как операции в сфере информационных технологий (ИТ) начали усложняться, организации осознали необходимость контроля ИТ-ресурсов. Наличие недорогого сетевого оборудования в сочетании с новыми стандартами для сетевой структурированной кабельной разводки позволило использовать иерархическую конструкцию, которая размещала серверы в определенной комнате внутри компании. Использование термина центр обработки данных применительно к специально спроектированным компьютерным комнатам начало получать всеобщее признание примерно в это же время. [8] [примечание 3]
Бум центров обработки данных пришелся на период пузыря доткомов 1997–2000 гг. [9] [примечание 4] Компаниям требовалось быстрое подключение к Интернету и бесперебойная работа для развертывания систем и создания присутствия в Интернете. Установка такого оборудования была невыгодной для многих небольших компаний. Многие компании начали строить очень большие объекты, называемые интернет-центрами обработки данных (IDC), [10] которые предоставляют расширенные возможности, такие как перекрестное резервирование: «Если линия Bell Atlantic будет перерезана, мы можем перевести их на ..., чтобы минимизировать время простоя». [10]
Термин « облачные центры обработки данных » (CDC) использовался ранее. [11] Центры обработки данных обычно требуют больших затрат на создание и обслуживание. [9] Разделение этих терминов все больше и больше исчезает, и они объединяются в термин « центр обработки данных» . [12]
Глобальный рынок центров обработки данных показал устойчивый рост в 2010-х годах, с заметным ускорением во второй половине десятилетия. По данным Gartner , мировые расходы на инфраструктуру центров обработки данных достигли 200 миллиардов долларов в 2021 году, что на 6% больше, чем в 2020 году, несмотря на экономические проблемы, вызванные пандемией COVID-19 . [13]
В конце 2010-х и начале 2020-х годов произошел значительный сдвиг в сторону приложений ИИ и машинного обучения , что привело к глобальному буму более мощной и эффективной инфраструктуры центров обработки данных. По состоянию на март 2021 года прогнозировалось, что глобальное создание данных к 2025 году превысит 180 зеттабайт по сравнению с 64,2 зеттабайт в 2020 году. [14]
В настоящее время Соединенные Штаты являются ведущим лидером в области инфраструктуры центров обработки данных, размещая 5381 центр обработки данных по состоянию на март 2024 года, что является самым высоким показателем среди всех стран мира. [15] По данным глобальной консалтинговой компании McKinsey & Co., ожидается, что спрос на рынке США удвоится до 35 гигаватт (ГВт) к 2030 году по сравнению с 17 ГВт в 2022 году. [16] По состоянию на 2023 год на США приходится около 40 процентов мирового рынка. [17]
Исследование, опубликованное Институтом исследований в области электроэнергетики (EPRI) в мае 2024 года, оценивает, что потребление электроэнергии в центрах обработки данных США может составить от 4,6% до 9,1% от выработки в стране к 2030 году. [18] По состоянию на 2023 год около 80% нагрузки центров обработки данных США было сосредоточено в 15 штатах, во главе с Вирджинией и Техасом. [19]
Модернизация и трансформация центра обработки данных повышают производительность и энергоэффективность . [20]
Информационная безопасность также является проблемой, и по этой причине центр обработки данных должен предлагать безопасную среду, которая минимизирует вероятность нарушения безопасности. Поэтому центр обработки данных должен поддерживать высокие стандарты для обеспечения целостности и функциональности своей размещенной компьютерной среды.
По оценкам исследовательской компании International Data Corporation (IDC), средний возраст центра обработки данных составляет девять лет. [20] Gartner , другая исследовательская компания, утверждает, что центры обработки данных старше семи лет устарели. [21] Рост объемов данных (163 зеттабайта к 2025 году [22] ) является одним из факторов, обусловливающих необходимость модернизации центров обработки данных.
Акцент на модернизации не нов: обеспокоенность по поводу устаревшего оборудования была осуждена в 2007 году, [23] а в 2011 году Uptime Institute выразил обеспокоенность возрастом оборудования. [примечание 5] К 2018 году обеспокоенность снова сместилась, на этот раз в сторону возраста персонала: «персонал центров обработки данных стареет быстрее, чем оборудование». [24]
Стандарт телекоммуникационной инфраструктуры для центров обработки данных Ассоциации телекоммуникационной промышленности [25] определяет минимальные требования к телекоммуникационной инфраструктуре центров обработки данных и компьютерных залов, включая однопользовательские корпоративные центры обработки данных и многопользовательские центры обработки данных Интернет-хостинга. Топология, предложенная в этом документе, предназначена для применения в центрах обработки данных любого размера. [26]
Telcordia GR-3160, Требования NEBS к оборудованию и пространствам центров обработки данных телекоммуникаций , [27] содержит руководящие принципы для пространств центров обработки данных в телекоммуникационных сетях и экологические требования к оборудованию, предназначенному для установки в этих пространствах. Эти критерии были разработаны совместно Telcordia и представителями отрасли. Они могут применяться к пространствам центров обработки данных, в которых размещается оборудование для обработки данных или информационных технологий (ИТ). Оборудование может использоваться для:
Трансформация центра обработки данных осуществляется поэтапно с помощью комплексных проектов, реализуемых с течением времени. Это отличается от традиционного метода модернизации центра обработки данных, который использует последовательный и разрозненный подход. [28] Типичные проекты в рамках инициативы по трансформации центра обработки данных включают стандартизацию/консолидацию, виртуализацию , автоматизацию и безопасность.
Руководство по стандартам фальшполов под названием GR-2930 было разработано компанией Telcordia Technologies , дочерней компанией Ericsson . [40]
Хотя первый компьютерный зал с фальшполом был создан IBM в 1956 году [41] , и они «существуют с 1960-х годов», [42] именно в 1970-х годах компьютерные центры стали более распространенными, что позволило более эффективно циркулировать охлажденному воздуху. [43] [44]
Первоначальным предназначением фальшпола было обеспечение доступа к электропроводке. [41]
Центр обработки данных с отключением света [45] , также известный как затемненный или темный центр обработки данных, представляет собой центр обработки данных, который в идеале практически исключает необходимость прямого доступа персонала, за исключением чрезвычайных обстоятельств. Из-за отсутствия необходимости для персонала входить в центр обработки данных, он может работать без освещения. Все устройства доступны и управляются удаленными системами, с программами автоматизации, используемыми для выполнения необслуживаемых операций. Помимо экономии энергии, сокращения расходов на персонал и возможности размещения объекта дальше от населенных пунктов, внедрение центра обработки данных с отключением света снижает угрозу вредоносных атак на инфраструктуру. [46] [47]
В целом местные власти предпочитают, чтобы уровень шума в центрах обработки данных был «на 10 дБ ниже существующего уровня ночного фонового шума в ближайшем жилом доме». [48]
Правила OSHA требуют мониторинга уровня шума внутри центров обработки данных, если шум превышает 85 децибел. [49] Средний уровень шума в серверных зонах центра обработки данных может достигать 92-96 дБ(А). [50]
Жители, живущие рядом с центрами обработки данных, описывают этот звук как «высокий жужжащий шум 24/7», говоря: «Это как находиться на взлетной полосе с постоянно работающим двигателем самолета... За исключением того, что самолет работает на холостом ходу и никогда не взлетает». [51] [52] [53] [54]
Внешние источники шума включают в себя оборудование HVAC и генераторы энергии. [55] [56]
Сфера проектирования центров обработки данных развивалась на протяжении десятилетий в различных направлениях, включая новое строительство больших и малых объектов, а также творческое повторное использование существующих объектов, таких как заброшенные торговые площади, старые соляные шахты и бункеры времен войны.
Местные строительные нормы могут регулировать минимальную высоту потолков и другие параметры. Некоторые соображения при проектировании центров обработки данных:
Существуют различные показатели для измерения доступности данных, которая является результатом доступности центра обработки данных свыше 95% времени безотказной работы, при этом верхняя часть шкалы подсчитывает, сколько девяток может быть размещено после 99% . [64]
Модульность и гибкость являются ключевыми элементами, позволяющими центру обработки данных расти и меняться со временем. Модули центра обработки данных представляют собой предварительно спроектированные стандартизированные строительные блоки, которые можно легко настраивать и перемещать по мере необходимости. [65]
Модульный центр обработки данных может состоять из оборудования центра обработки данных, размещенного в транспортных контейнерах или аналогичных переносных контейнерах. [66] Компоненты центра обработки данных могут быть изготовлены заранее и стандартизированы, что облегчает перемещение при необходимости. [67]
Температура и влажность контролируются с помощью:
Важно, чтобы компьютеры не были влажными или перегревались, так как высокая влажность может привести к засорению вентиляторов пылью, что приведет к перегреву или может вызвать неисправность компонентов, что приведет к порче платы и возникновению пожара. Перегрев может привести к расплавлению компонентов, обычно кремния или меди проводов или цепей, что приведет к ослаблению соединений, что приведет к пожару.
Резервное питание состоит из одного или нескольких источников бесперебойного питания , батарейных блоков и/или дизельных / газотурбинных генераторов. [70]
Для предотвращения отдельных точек отказа все элементы электрических систем, включая резервные системы, обычно имеют избыточные копии , а критические серверы подключаются как к линиям питания A-side, так и к линиям питания B-side . Такая схема часто применяется для достижения избыточности N+1 в системах. Статические переключатели иногда используются для обеспечения мгновенного переключения с одного источника питания на другой в случае сбоя питания.
Варианты включают в себя:
Управление потоком воздуха решает необходимость повышения эффективности охлаждения компьютеров в центрах обработки данных путем предотвращения рециркуляции горячего воздуха, выходящего из ИТ-оборудования, и снижения обходного воздушного потока. Существует несколько методов разделения горячих и холодных воздушных потоков, таких как сдерживание горячих/холодных коридоров и внутрирядные охлаждающие устройства. [72]
Изоляция холодного коридора осуществляется путем открытия задней части стоек с оборудованием, в то время как передние части серверов закрыты дверцами и крышками. Это похоже на то, как крупные пищевые компании охлаждают и хранят свою продукцию.
Компьютерные шкафы/ серверные фермы часто организуются для изоляции горячих/холодных коридоров. Правильное размещение воздуховодов предотвращает смешивание холодного и горячего воздуха. Ряды шкафов располагаются парами друг напротив друга, чтобы воздухозаборники и вытяжки холодного и горячего воздуха не смешивали воздух, что значительно снизило бы эффективность охлаждения.
В качестве альтернативы, ряд панелей под полом может создать эффективные пути холодного воздуха, направленные к вентилируемым плиткам фальшпола. Можно ограничить либо холодный, либо горячий проход. [73]
Другой вариант — установка шкафов с вертикальными вытяжными трубами . [ 74] Горячие вытяжные трубы/вентиляционные отверстия/воздуховоды могут направлять воздух в пространство Plenum над подвесным потолком и обратно к охлаждающим устройствам или к наружным вентиляционным отверстиям. При такой конфигурации традиционная конфигурация горячих/холодных коридоров не является обязательной. [75]
Центры обработки данных оснащены системами противопожарной защиты , включая пассивные и активные элементы проектирования , а также внедрением программ противопожарной профилактики в эксплуатацию. Датчики дыма обычно устанавливаются для раннего оповещения о пожаре на начальной стадии.
Хотя в главном помещении обычно не допускается использование систем на основе мокрых труб из-за хрупкости печатных плат , все еще существуют системы, которые можно использовать в остальной части объекта или в системах циркуляции воздуха холодных/горячих коридоров, которые являются закрытыми системами , например: [76]
Однако существуют и другие способы тушения пожаров, особенно в уязвимых зонах , обычно с использованием газового пожаротушения , из которых наиболее популярным был газ галон , пока не были обнаружены негативные последствия его производства и использования.[1]
Физический доступ обычно ограничен. Многоуровневая безопасность часто начинается с ограждения, тумб и ловушек . [77] Видеонаблюдение и постоянная охрана присутствуют почти всегда, если центр обработки данных большой или содержит конфиденциальную информацию. Ловушки с распознаванием отпечатков пальцев начинают становиться обычным явлением.
Доступ к журналу требуется некоторыми правилами защиты данных; некоторые организации тесно связывают это с системами контроля доступа. Несколько записей в журнале могут иметь место на главном входе, входах во внутренние помещения и в шкафах с оборудованием. Контроль доступа в шкафах может быть интегрирован с интеллектуальными блоками распределения питания , так что замки будут объединены в сеть через одно и то же устройство. [78]
Энергопотребление является центральной проблемой для центров обработки данных. Потребляемая мощность варьируется от нескольких кВт для стойки серверов в шкафу до нескольких десятков МВт для крупных объектов. Некоторые объекты имеют плотность мощности, в 100 раз превышающую плотность мощности типичного офисного здания. [79] Для объектов с более высокой плотностью мощности расходы на электроэнергию являются доминирующими эксплуатационными расходами и составляют более 10% от общей стоимости владения (TCO) центром обработки данных. [80]
В 2020 году центры обработки данных (исключая майнинг криптовалют) и передача данных потребляли около 1% мировой электроэнергии. [81] Хотя часть этой электроэнергии была низкоуглеродной, МЭА призвало к большему «усилию правительства и промышленности по энергоэффективности, закупкам возобновляемых источников энергии и НИОКР», [81], поскольку некоторые центры обработки данных по-прежнему используют электроэнергию, вырабатываемую с помощью ископаемого топлива. [82] Они также заявили, что следует учитывать выбросы за жизненный цикл, то есть включать воплощенные выбросы, например, в зданиях. [81] По оценкам, центры обработки данных ответственны за 0,5% выбросов парниковых газов в США в 2018 году. [83] Некоторые китайские компании, такие как Tencent , пообещали стать углеродно-нейтральными к 2030 году, в то время как другие, такие как Alibaba, подверглись критике со стороны Greenpeace за то, что не взяли на себя обязательство стать углеродно-нейтральными. [84] Google и Microsoft теперь потребляют больше электроэнергии, чем некоторые довольно крупные страны, превзойдя потребление более чем 100 стран. [85]
Наиболее часто используемым показателем энергоэффективности для центров обработки данных является эффективность использования энергии (PUE), рассчитываемая как отношение общей мощности, поступающей в центр обработки данных, к мощности, потребляемой ИТ-оборудованием.
PUE измеряет процент мощности, используемой накладными устройствами (охлаждение, освещение и т. д.). Средний центр обработки данных в США имеет PUE 2,0, [86] что означает два ватта общей мощности (накладные расходы + ИТ-оборудование) на каждый ватт, поставляемый ИТ-оборудованию. Современные центры обработки данных, по оценкам, имеют PUE примерно 1,2. [87] Google публикует квартальные показатели эффективности своих работающих центров обработки данных. [88] PUE всего 1,01 были достигнуты с двухфазным иммерсионным охлаждением. [89]
Агентство по охране окружающей среды США присвоило рейтинг Energy Star отдельным или крупным центрам обработки данных. Чтобы получить экомаркировку, центр обработки данных должен входить в верхний квартиль по энергоэффективности среди всех зарегистрированных объектов. [90] Закон о повышении энергоэффективности 2015 года (США) требует, чтобы федеральные объекты, включая центры обработки данных, работали более эффективно. Раздел 24 (2014) Свода правил Калифорнии предписывает, чтобы каждый вновь построенный центр обработки данных имел некоторую форму сдерживания воздушного потока для оптимизации энергоэффективности.
У Европейского Союза также есть аналогичная инициатива: Кодекс поведения ЕС для центров обработки данных. [91]
Измерение и анализ энергопотребления выходят за рамки того, что используется ИТ-оборудованием; вспомогательное оборудование объекта, такое как охладители и вентиляторы, также потребляет энергию. [92]
В 2011 году серверные стойки в центрах обработки данных были рассчитаны на мощность более 25 кВт, и, по оценкам, типичный сервер тратит около 30% потребляемой им электроэнергии. Спрос на энергию для систем хранения информации также растет. Центр обработки данных с высокой доступностью, по оценкам, потребляет 1 мегаватт (МВт) и потребляет 20 000 000 долларов электроэнергии за весь срок службы , при этом охлаждение составляет от 35% до 45% от общей стоимости владения центром обработки данных . Расчеты показывают, что через два года стоимость питания и охлаждения сервера может быть равна стоимости покупки серверного оборудования. [93] Исследования, проведенные в 2018 году, показали, что значительное количество энергии все еще можно сэкономить за счет оптимизации частоты обновления ИТ и увеличения использования сервера. [94]
В 2011 году Facebook , Rackspace и другие основали Open Compute Project (OCP) для разработки и публикации открытых стандартов для более экологичных вычислительных технологий центров обработки данных. В рамках проекта Facebook опубликовал проекты своего сервера, который он построил для своего первого выделенного центра обработки данных в Прайнвилле. Увеличение высоты серверов оставило место для более эффективных радиаторов и позволило использовать вентиляторы, которые перемещали больше воздуха с меньшими затратами энергии. Не покупая коммерческие готовые серверы, также удалось сэкономить потребление энергии из-за ненужных слотов расширения на материнской плате и ненужных компонентов, таких как видеокарта . [95] В 2016 году Google присоединилась к проекту и опубликовала проекты своей мелкой стойки для центров обработки данных на 48 В постоянного тока. Эта конструкция долгое время была частью центров обработки данных Google . Устранив несколько трансформаторов, обычно используемых в центрах обработки данных, Google добилась повышения энергоэффективности на 30%. [96] В 2017 году продажи оборудования для центров обработки данных, созданного по проектам OCP, превысили 1,2 миллиарда долларов США и, как ожидается, достигнут 6 миллиардов долларов США к 2021 году. [95]
Электроэнергия является самой большой регулярной статьей расходов для пользователя центра обработки данных. [97] Охлаждение при температуре 70 °F (21 °C) или ниже приводит к пустой трате денег и энергии. [97] Кроме того, переохлаждение оборудования в средах с высокой относительной влажностью может подвергнуть оборудование воздействию большого количества влаги, что способствует росту солевых отложений на проводящих нитях в схемах. [98]
Анализ мощности и охлаждения , также называемый тепловой оценкой, измеряет относительные температуры в определенных областях, а также способность систем охлаждения справляться с определенными температурами окружающей среды. [99] Анализ мощности и охлаждения может помочь определить горячие точки, переохлажденные области, которые могут справиться с большей плотностью использования мощности, точку останова загрузки оборудования, эффективность стратегии фальшпола и оптимальное расположение оборудования (например, блоков переменного тока) для балансировки температур по всему центру обработки данных. Плотность охлаждения мощности является мерой того, сколько квадратных футов центр может охладить при максимальной мощности. [100] Охлаждение центров обработки данных является вторым по величине потребителем энергии после серверов. Энергия охлаждения варьируется от 10% от общего потребления энергии в самых эффективных центрах обработки данных и доходит до 45% в стандартных центрах обработки данных с воздушным охлаждением.
Анализ энергоэффективности измеряет энергопотребление ИТ-центров и оборудования объектов. Типичный анализ энергоэффективности измеряет такие факторы, как эффективность использования энергии (PUE) центра обработки данных по сравнению со стандартами отрасли, определяет механические и электрические источники неэффективности и определяет показатели управления воздухом. [101] Однако ограничение большинства текущих показателей и подходов заключается в том, что они не включают ИТ в анализ. Исследования случаев показали, что путем комплексного решения проблемы энергоэффективности в центре обработки данных можно достичь значительной эффективности, которая в противном случае была бы невозможна. [102]
Этот тип анализа использует сложные инструменты и методы для понимания уникальных тепловых условий, присутствующих в каждом центре обработки данных, — прогнозируя температуру, воздушный поток и поведение давления в центре обработки данных для оценки производительности и потребления энергии с использованием численного моделирования. [103] Прогнозируя влияние этих условий окружающей среды, анализ вычислительной гидродинамики центра обработки данных может использоваться для прогнозирования воздействия высокоплотных стоек в сочетании со стойками низкой плотности [104] и дальнейшего воздействия на ресурсы охлаждения, неэффективные методы управления инфраструктурой и отказы кондиционера или отключения кондиционера для планового обслуживания.
Картографирование температурных зон использует датчики и компьютерное моделирование для создания трехмерного изображения горячих и холодных зон в центре обработки данных. [105]
Эта информация может помочь определить оптимальное расположение оборудования центра обработки данных. Например, критически важные серверы могут быть размещены в прохладной зоне, которая обслуживается резервными блоками переменного тока.
Центры обработки данных используют много энергии, потребляемой двумя основными способами: энергия, необходимая для работы самого оборудования, и энергия, необходимая для охлаждения оборудования. Эффективность использования энергии снижает первую категорию.
Сокращение расходов на охлаждение естественным путем включает в себя решения о местоположении: когда основное внимание уделяется избеганию хорошего оптоволоконного соединения, подключений к электросети и концентрации людей для управления оборудованием, центр обработки данных может находиться в нескольких милях от пользователей. Массовые центры обработки данных, такие как Google или Facebook, не должны находиться вблизи населенных пунктов. Арктические местоположения, которые могут использовать наружный воздух, обеспечивающий охлаждение, становятся все более популярными. [106]
Возобновляемые источники электроэнергии — еще один плюс. Поэтому страны с благоприятными условиями, такие как Канада, [107] Финляндия, [108] Швеция, [109] Норвегия, [110] и Швейцария [111], пытаются привлечь облачные вычислительные дата-центры.
Сингапур снял трехлетний запрет на новые центры обработки данных в апреле 2022 года. Крупнейший центр центров обработки данных для Азиатско-Тихоокеанского региона [112] , Сингапур снял мораторий на новые проекты центров обработки данных в 2022 году, предоставив 4 новых проекта, но отклонив более 16 заявок на новые центры обработки данных из более чем 20 полученных заявок. Новые центры обработки данных Сингапура должны соответствовать очень строгим критериям зеленых технологий, включая «Эффективность использования воды (WUE) 2,0/МВт·ч, эффективность использования энергии (PUE) менее 1,3 и иметь «Платиновую сертификацию в соответствии с критериями BCA-IMDA Green Mark для новых центров обработки данных Сингапура», которые четко касаются декарбонизации и использования водородных элементов или солнечных панелей. [113] [114] [115] [116]
Центры обработки данных постоянного тока — это центры обработки данных, которые производят постоянный ток на месте с помощью солнечных панелей и хранят электроэнергию на месте в аккумуляторной электростанции . Компьютеры работают на постоянном токе, и необходимость в инвертировании переменного тока из сети будет устранена. Площадка центра обработки данных может по-прежнему использовать переменный ток в качестве резервного решения для сети. Центры обработки данных постоянного тока могут быть на 10% эффективнее и использовать меньше площади пола для инвертирования компонентов. [117] [118]
Очень сложно повторно использовать тепло, которое поступает из центров обработки данных с воздушным охлаждением. По этой причине инфраструктуры центров обработки данных чаще всего оснащаются тепловыми насосами. [119] Альтернативой тепловым насосам является внедрение жидкостного охлаждения во всем центре обработки данных. Различные методы жидкостного охлаждения смешиваются и подбираются, чтобы обеспечить полностью жидкостную инфраструктуру, которая улавливает все тепло водой. Различные жидкостные технологии подразделяются на 3 основные группы: косвенное жидкостное охлаждение (водяное охлаждение стоек), прямое жидкостное охлаждение (охлаждение непосредственно на чипе) и полное жидкостное охлаждение (полное погружение в жидкость, см. охлаждение погружением сервера ). Такое сочетание технологий позволяет создавать тепловой каскад как часть сценариев температурной цепочки для создания высокотемпературных выходов воды из центра обработки данных.
Криптомайнинг и бум искусственного интеллекта в 2020-х годах также привели к росту спроса на электроэнергию, [120] [121] что , по ожиданиям МЭА , может удвоить глобальный общий спрос центров обработки данных на электроэнергию в период с 2022 по 2026 год. [6] США могут увидеть, как их доля на рынке электроэнергии, приходящаяся на центры обработки данных, увеличится с 4% до 6% за эти четыре года. [6] Биткоин потреблял 2% электроэнергии США в 2023 году . [122] Это привело к росту цен на электроэнергию, особенно в регионах с большим количеством центров обработки данных, таких как Санта-Клара, Калифорния [123] и северная часть штата Нью-Йорк . [124] Центры обработки данных также вызвали обеспокоенность в Северной Вирджинии по поводу того, придется ли жителям оплачивать счета за будущие линии электропередач. [122] Это также затруднило строительство жилья в Лондоне. [125] В отчете Института Банка Америки за июль 2024 года говорится, что рост спроса на электроэнергию, отчасти из-за ИИ, привел к росту цен на электроэнергию и является существенным фактором инфляции на электроэнергию . [126] [127] [128]
Динамическая инфраструктура [129] обеспечивает возможность интеллектуального, автоматического и безопасного перемещения рабочих нагрузок в центре обработки данных [130] в любое время и в любом месте для миграции, предоставления , [131] для повышения производительности или создания объектов совместного размещения . Она также облегчает выполнение планового обслуживания как физических, так и виртуальных систем, сводя к минимуму прерывания. Связанная концепция — Composable Infrastructure, которая позволяет динамически перенастраивать доступные ресурсы в соответствии с потребностями, только при необходимости. [132]
Дополнительные преимущества включают в себя:
Сегодня коммуникации в центрах обработки данных чаще всего основаны на сетях, работающих на наборе протоколов Интернета . Центры обработки данных содержат набор маршрутизаторов и коммутаторов , которые транспортируют трафик между серверами и во внешний мир [134] , которые подключены в соответствии с сетевой архитектурой центра обработки данных . Избыточность интернет-соединения часто обеспечивается за счет использования двух или более поставщиков услуг верхнего уровня (см. Multihoming ).
Некоторые серверы в центре обработки данных используются для работы основных интернет- и интранет- сервисов, необходимых внутренним пользователям организации, например, серверы электронной почты, прокси-серверы и DNS- серверы.
Также обычно развертываются элементы сетевой безопасности: межсетевые экраны , шлюзы VPN , системы обнаружения вторжений и т. д. Также распространены системы мониторинга сети и некоторых приложений. Также типичны дополнительные системы внешнего мониторинга на случай сбоя связи внутри центра обработки данных.
Не взаимоисключающие варианты резервного копирования данных :
Onsite — традиционный способ, [135] и одним из его главных преимуществ является немедленная доступность.
Методы резервного копирования данных включают в себя наличие зашифрованной копии данных вне офиса. Методы, используемые для транспортировки данных: [136]
Для быстрого развертывания или восстановления ИТ-систем после сбоев несколько крупных поставщиков оборудования разработали мобильные/модульные решения, которые можно установить и ввести в эксплуатацию в очень короткие сроки.
Микроцентры обработки данных (MDC) — это центры обработки данных уровня доступа, которые меньше по размеру, чем традиционные центры обработки данных, но предоставляют те же функции. [139] Обычно они располагаются рядом с источником данных, чтобы сократить задержки связи, поскольку их небольшой размер позволяет распределить несколько MDC по большой площади. [140] [141] MDC хорошо подходят для приложений, ориентированных на пользователя, интерфейсных приложений. [142] Они обычно используются в периферийных вычислениях и других областях, где требуется обработка данных с низкой задержкой. [143]
центр обработки данных .. гигантский .. объект .. 15 таких зданий и еще шесть .. в стадии строительства
«Друзья не позволяют друзьям строить центры обработки данных», — сказал Чарльз Филлипс, генеральный директор Infor, производителя бизнес-ПО.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка )