Центр обработки данных ( американский английский ) [1] или центр обработки данных ( английский Содружество ) [2] [примечание 1] — это здание , выделенное пространство внутри здания или группа зданий [3] , используемые для размещения компьютерных систем и связанных с ними компоненты, такие как телекоммуникации и системы хранения данных . [4] [5]
Поскольку ИТ-операции имеют решающее значение для непрерывности бизнеса , они обычно включают резервные или резервные компоненты и инфраструктуру для электропитания , соединений для передачи данных, контроля окружающей среды (например, кондиционирования воздуха , пожаротушения) и различных устройств безопасности. Крупный центр обработки данных — это предприятие промышленного масштаба, потребляющее столько же электроэнергии, сколько небольшой город. [6] По оценкам, глобальное потребление электроэнергии в центрах обработки данных в 2022 году составит 240–340 ТВтч , или примерно 1–1,3% мирового спроса на электроэнергию. Сюда не входит энергия, используемая для майнинга криптовалюты, которая, по оценкам, в 2022 году составит около 110 ТВтч, или еще 0,4% мирового спроса на электроэнергию. [7]
Центры обработки данных могут сильно различаться по размеру, требованиям к электропитанию, резервированию и общей структуре. Для сегментирования типов центров обработки данных используются четыре общие категории: локальные центры обработки данных, колокейшн-центры, гипермасштабируемые центры обработки данных и периферийные центры обработки данных. [8]
Центры обработки данных берут свое начало в огромных компьютерных залах 1940-х годов, типичным примером которых является ENIAC , один из самых ранних примеров центров обработки данных. [9] [примечание 2] Ранние компьютерные системы, сложные в эксплуатации и обслуживании, требовали специальной среды для работы. Для соединения всех компонентов требовалось множество кабелей, и были разработаны методы их размещения и организации, такие как стандартные стойки для монтажа оборудования, фальшполы и кабельные лотки (устанавливаемые над головой или под фальшполом). Один мейнфрейм требовал много энергии, и его нужно было охлаждать, чтобы избежать перегрева. Безопасность стала важной: компьютеры были дорогими и часто использовались в военных целях. [9] [примечание 3] Поэтому были разработаны основные рекомендации по проектированию контроля доступа в компьютерный зал.
Во время бума микрокомпьютерной индустрии, особенно в 1980-е годы, пользователи начали использовать компьютеры повсюду, во многих случаях практически не заботясь об эксплуатационных требованиях. Однако по мере усложнения операций информационных технологий (ИТ) организации осознали необходимость контроля ИТ-ресурсов. Доступность недорогого сетевого оборудования в сочетании с новыми стандартами структурированной кабельной сети позволили использовать иерархическую схему, при которой серверы размещались в определенном помещении внутри компании. Примерно в это же время использование термина « центр обработки данных» применительно к специально спроектированным компьютерным залам начало получать широкое признание. [9] [примечание 4]
Бум центров обработки данных пришелся на период пузыря доткомов 1997–2000 годов. [10] [примечание 5] Компаниям требовалось быстрое подключение к Интернету и бесперебойная работа для развертывания систем и установления присутствия в Интернете. Установка такого оборудования была нецелесообразна для многих небольших компаний. Многие компании начали строить очень большие объекты, называемые интернет-центрами обработки данных (IDC), [11] которые предоставляют расширенные возможности, такие как перекрестное резервное копирование: «Если линия Bell Atlantic будет отключена, мы можем перенести их в… чтобы минимизировать время простоя». [11]
Был использован термин облачные центры обработки данных (CDC). [12] Центры обработки данных обычно требуют больших затрат на строительство и обслуживание. [10] Все чаще разделение этих терминов почти исчезло, и они интегрируются в термин « центр обработки данных» . [13]
Модернизация и преобразование центров обработки данных повышают производительность и энергоэффективность . [14]
Информационная безопасность также вызывает беспокойство, и по этой причине центр обработки данных должен предлагать безопасную среду, которая сводит к минимуму вероятность нарушения безопасности. Поэтому центр обработки данных должен поддерживать высокие стандарты обеспечения целостности и функциональности размещенной компьютерной среды.
Отраслевая исследовательская компания International Data Corporation (IDC) оценивает средний возраст центров обработки данных в девять лет. [14] Другая исследовательская компания Gartner утверждает, что центры обработки данных старше семи лет устарели. [15] Рост объема данных (163 зеттабайта к 2025 году [16] ) является одним из факторов, вызывающих необходимость модернизации центров обработки данных.
Акцент на модернизации не является чем-то новым: обеспокоенность по поводу устаревшего оборудования осуждалась в 2007 году [17] , а в 2011 году Uptime Institute выразил обеспокоенность по поводу возраста оборудования. [примечание 6] К 2018 году беспокойство снова сместилось, на этот раз в сторону возраста персонала: «персонал центров обработки данных стареет быстрее, чем оборудование». [18]
Стандарт телекоммуникационной инфраструктуры для центров обработки данных Ассоциации телекоммуникационной отрасли [19] определяет минимальные требования к телекоммуникационной инфраструктуре центров обработки данных и компьютерных залов, включая корпоративные центры обработки данных с одним арендатором и центры обработки данных с многопользовательским Интернет-хостингом. Топология, предложенная в этом документе, предназначена для применения в центрах обработки данных любого размера. [20]
Telcordia GR-3160, «Требования NEBS к оборудованию и помещениям телекоммуникационных центров обработки данных» , [21] содержит рекомендации по помещениям центров обработки данных в телекоммуникационных сетях, а также экологические требования к оборудованию, предназначенному для установки в этих помещениях. Эти критерии были разработаны Telcordia совместно с представителями отрасли. Их можно применять в помещениях центров обработки данных, в которых размещено оборудование для обработки данных или информационных технологий (ИТ). Оборудование может использоваться для:
Трансформация центров обработки данных осуществляется поэтапно посредством интегрированных проектов, реализуемых на протяжении длительного времени. Это отличается от традиционного метода обновления центров обработки данных, который предполагает последовательный и разрозненный подход. [22] Типичные проекты в рамках инициативы по преобразованию центров обработки данных включают стандартизацию/консолидацию, виртуализацию , автоматизацию и безопасность.
Руководство по стандартам фальшпола под названием GR-2930 было разработано Telcordia Technologies , дочерней компанией Ericsson . [34]
Хотя первый компьютерный зал с фальшполом был построен IBM в 1956 году, [35] и они «существуют с 1960-х годов», [36] именно 1970-е годы сделали компьютерные центры более распространенными, чтобы таким образом обеспечить доступ прохладного воздуха. циркулировать более эффективно. [37] [38]
Первой целью фальшпола было обеспечение доступа к проводке. [35]
Центр обработки данных с выключенным освещением [39] , также известный как затемненный или темный центр обработки данных, представляет собой центр обработки данных, в котором в идеале практически исключена необходимость прямого доступа персонала, за исключением чрезвычайных обстоятельств. Из-за отсутствия необходимости входа персонала в дата-центр, его можно эксплуатировать без освещения. Доступ ко всем устройствам и управление ими осуществляются удаленными системами, а программы автоматизации используются для выполнения автоматических операций. Помимо экономии энергии, сокращения затрат на персонал и возможности расположить объект дальше от населенных пунктов, внедрение центра обработки данных без освещения снижает угрозу злонамеренных атак на инфраструктуру. [40] [41]
Вообще говоря, местные власти предпочитают, чтобы уровень шума в центрах обработки данных был «на 10 дБ ниже существующего уровня фонового шума в ночное время в ближайшем жилом доме». [42]
Правила OSHA требуют мониторинга уровня шума внутри центров обработки данных, если шум превышает 85 децибел. [43] Средний уровень шума в серверных помещениях центра обработки данных может достигать 92–96 дБ(А). [44]
Жители, живущие рядом с центрами обработки данных, описали этот звук как «пронзительный жужжащий шум 24 часа в сутки, 7 дней в неделю», говоря: «Это похоже на то, как если бы вы находились на взлетной полосе с постоянно работающим двигателем самолета… За исключением того, что самолет продолжает работать на холостом ходу и никогда не улетает». [45] [46] [47] [48]
К внешним источникам шума относятся климатическое оборудование и генераторы энергии. [49] [50]
Область проектирования центров обработки данных на протяжении десятилетий развивалась в различных направлениях, включая новое строительство, большое и маленькое, а также творческое повторное использование существующих объектов, таких как заброшенные торговые площади, старые соляные шахты и бункеры времен войны.
Местные строительные нормы и правила могут регулировать минимальную высоту потолков и другие параметры. Некоторые соображения при проектировании центров обработки данных:
Существуют различные показатели для измерения доступности данных, возникающей в результате доступности центра обработки данных за пределами 95 % времени безотказной работы, при этом верхняя граница шкалы подсчитывает, сколько девяток можно поставить после 99 % . [58]
Модульность и гибкость являются ключевыми элементами, позволяющими центру обработки данных расти и меняться с течением времени. Модули центра обработки данных представляют собой предварительно спроектированные стандартизированные строительные блоки, которые можно легко настроить и перемещать по мере необходимости. [59]
Модульный центр обработки данных может состоять из оборудования центра обработки данных, находящегося в транспортных контейнерах или аналогичных переносных контейнерах. [60] Компоненты центра обработки данных могут быть изготовлены заранее и стандартизированы, что облегчает перемещение в случае необходимости. [61]
Температура и влажность контролируются с помощью:
Важно, чтобы компьютеры не подвергались влажности и не перегревались, так как высокая влажность может привести к засорению вентиляторов пылью, что приводит к перегреву, или может привести к неисправности компонентов, разрушению платы и возникновению опасности возгорания. Перегрев может привести к плавлению компонентов (обычно кремния или меди проводов или цепей), что приведет к ослаблению соединений и возникновению опасности возгорания.
Резервное питание состоит из одного или нескольких источников бесперебойного питания , аккумуляторных батарей и/или дизельных / газотурбинных генераторов. [64]
Чтобы предотвратить единые точки отказа , всем элементам электрических систем, включая системы резервного копирования, обычно предоставляются резервные копии , а критически важные серверы подключаются как к источникам питания на стороне A , так и к стороне B. Такое расположение часто делается для достижения резервирования N+1 в системах. Статические резервные переключатели иногда используются для обеспечения мгновенного переключения с одного источника питания на другой в случае сбоя питания.
Опции включают в себя:
Управление потоками воздуха позволяет повысить эффективность охлаждения компьютеров в центрах обработки данных , предотвращая рециркуляцию горячего воздуха, выходящего из ИТ-оборудования, и уменьшая поток байпасного воздуха. Существует несколько методов разделения потоков горячего и холодного воздуха, например, изоляция горячего/холодного коридора и рядные охлаждающие устройства. [66]
Изолирование холодных коридоров осуществляется путем открытия задней части стоек с оборудованием, а передние части серверов закрываются дверцами и крышками. Это похоже на то, как крупные пищевые компании хранят свою продукцию в холодильнике.
Компьютерные шкафы/ серверные фермы часто организуются для изоляции горячих/холодных коридоров. Правильное размещение воздуховодов предотвращает смешивание холодного и горячего воздуха. Ряды шкафов расположены попарно лицом друг к другу, чтобы воздухозаборники и вытяжные устройства холодного и горячего воздуха не смешивали воздух, что серьезно снижало бы эффективность охлаждения.
В качестве альтернативы, ряд панелей под полом может создать эффективные пути холодного воздуха, направляемые к вентилируемой плитке фальшпола. Можно ограничить как холодный, так и горячий коридор. [67]
Другой вариант – установка шкафов с вертикальными дымоходами . [68] Горячие вытяжные трубы/вентиляционные каналы/каналы могут направлять воздух в пространство пленума над подвесным потолком и обратно в охлаждающие устройства или к внешним вентиляционным отверстиям. При такой конфигурации традиционная конфигурация горячего/холодного коридора не является обязательным требованием. [69]
В дата-центрах реализованы системы противопожарной защиты , включающие элементы пассивного и активного проектирования , а также внедрены программы противопожарной защиты в эксплуатации. Детекторы дыма обычно устанавливаются для раннего предупреждения о пожаре на его зарождающейся стадии.
Хотя в главном помещении обычно не допускается использование систем с мокрыми трубами из- за хрупкой природы печатных плат , все же существуют системы, которые можно использовать в остальной части объекта или в системах циркуляции воздуха с холодным/горячим коридором, которые являются закрытыми системами. , например: [70]
Однако существуют и другие средства тушения пожаров, особенно в чувствительных зонах , обычно с использованием газового пожаротушения , из которых наиболее популярным был газ галон , пока не были обнаружены негативные последствия его производства и использования.[1]
Физический доступ обычно ограничен. Многоуровневая безопасность часто начинается с ограждений, столбов и ловушек . [71] Видеонаблюдение и постоянная охрана почти всегда присутствуют, если дата-центр большой или содержит конфиденциальную информацию. Ловушки для распознавания отпечатков пальцев становятся обычным явлением.
Доступ к журналированию требуется некоторыми правилами защиты данных; некоторые организации тесно связывают это с системами контроля доступа. Множественные записи в журнале могут возникать у главного входа, входов во внутренние помещения и в шкафах с оборудованием. Контроль доступа в шкафах может быть интегрирован с интеллектуальными устройствами распределения питания , так что замки будут объединены в сеть через одно и то же устройство. [72]
Использование энергии является центральной проблемой для центров обработки данных. Потребляемая мощность варьируется от нескольких кВт для стойки серверов в шкафу до нескольких десятков МВт для крупных объектов. Плотность мощности некоторых объектов более чем в 100 раз выше, чем в типичном офисном здании. [73] Для объектов с более высокой плотностью мощности затраты на электроэнергию являются доминирующими эксплуатационными расходами и составляют более 10% от общей стоимости владения (TCO) центра обработки данных. [74]
В 2020 году центры обработки данных (без учета добычи криптовалюты) и передачи данных использовали около 1% мировой электроэнергии каждый. [75] Хотя часть этой электроэнергии была низкоуглеродистой, МЭА призвало к активизации «усилий правительства и промышленности в области энергоэффективности, закупок возобновляемых источников энергии и НИОКР», [75] , поскольку некоторые центры обработки данных все еще используют электроэнергию, вырабатываемую из ископаемого топлива. [76] Они также заявили, что следует учитывать выбросы в течение жизненного цикла, включая выбросы, образующиеся в результате выбросов , например, в зданиях. [75] По оценкам, на центры обработки данных в 2018 году пришлось 0,5% выбросов парниковых газов в США. [77] Некоторые китайские компании, такие как Tencent , пообещали стать углеродно-нейтральными к 2030 году, в то время как другие, такие как Alibaba, подверглись критике. Гринпис за отказ стать углеродно-нейтральным . [78]
Наиболее часто используемым показателем энергоэффективности для центров обработки данных является эффективность использования энергии (PUE), рассчитываемая как отношение общей мощности, поступающей в центр обработки данных, к мощности, потребляемой ИТ-оборудованием.
ПУЭ измеряет процент мощности, потребляемой потолочными устройствами (охлаждение, освещение и т. д.). Среднестатистический центр обработки данных в США имеет PUE 2,0, [79] что означает два ватта общей мощности (накладные расходы + ИТ-оборудование) на каждый ватт, переданный ИТ-оборудованию. По оценкам, современные центры обработки данных имеют PUE примерно 1,2. [80] Google публикует ежеквартальные показатели эффективности действующих центров обработки данных. [81]
Агентство по охране окружающей среды США имеет рейтинг Energy Star для автономных или крупных центров обработки данных. Чтобы претендовать на получение экомаркировки, центр обработки данных должен находиться в верхнем квартиле по энергоэффективности среди всех заявленных объектов. [82] Закон о повышении энергоэффективности 2015 года (США) требует, чтобы федеральные объекты, включая центры обработки данных, работали более эффективно. Раздел 24 Калифорнийского свода правил (2014 г.) требует, чтобы каждый вновь построенный центр обработки данных имел ту или иную форму ограничения воздушного потока для оптимизации энергоэффективности.
У Европейского Союза также есть аналогичная инициатива: Кодекс поведения центров обработки данных ЕС. [83]
Цель измерения и анализа энергопотребления выходит за рамки того, что используется ИТ-оборудованием; Оборудование для поддержки объектов, такое как охладители и вентиляторы, также потребляет энергию. [84]
В 2011 году серверные стойки в центрах обработки данных были рассчитаны на мощность более 25 кВт, и, по оценкам, типичный сервер тратил около 30% потребляемой электроэнергии. Потребность в энергии для систем хранения информации также растет. По оценкам, центр обработки данных высокой доступности будет иметь потребность в 1 мегаватт (МВт) и потреблять 20 000 000 долларов США за электроэнергию в течение всего срока службы , при этом на охлаждение приходится от 35% до 45% общей стоимости владения центром обработки данных . Расчеты показывают, что через два года стоимость питания и охлаждения сервера может сравняться со стоимостью приобретения серверного оборудования. [85] Исследования 2018 года показали, что значительное количество энергии по-прежнему можно сэкономить за счет оптимизации частоты обновления ИТ-инфраструктуры и увеличения загрузки серверов. [86]
В 2011 году Facebook , Rackspace и другие основали Open Compute Project (OCP) для разработки и публикации открытых стандартов для более экологичных вычислительных технологий центров обработки данных. В рамках проекта Facebook опубликовал проект своего сервера, который он построил для своего первого специализированного центра обработки данных в Прайнвилле. Увеличение высоты серверов оставило место для более эффективных радиаторов и позволило использовать вентиляторы, которые перемещают больше воздуха с меньшими затратами энергии. Отказавшись от покупки коммерческих готовых серверов, удалось также сэкономить потребление энергии из-за ненужных слотов расширения на материнской плате и ненужных компонентов, таких как видеокарта . [87] В 2016 году к проекту присоединилась компания Google, опубликовавшая проект своей мелкой стойки для центров обработки данных с напряжением 48 В постоянного тока. Эта конструкция уже давно является частью дата-центров Google . Устранив несколько трансформаторов , обычно используемых в центрах обработки данных, Google добился повышения энергоэффективности на 30%. [88] В 2017 году продажи оборудования для центров обработки данных, построенного по проектам OCP, превысили 1,2 миллиарда долларов, а к 2021 году ожидается, что они достигнут 6 миллиардов долларов. [87]
Электроэнергия — это крупнейшая текущая стоимость для пользователя центра обработки данных. [89] Охлаждение до температуры 70 °F (21 °C) или ниже приводит к пустой трате денег и энергии. [89] Кроме того, переохлаждение оборудования в средах с высокой относительной влажностью может подвергнуть оборудование воздействию большого количества влаги, что способствует росту солевых отложений на проводящих нитях в схемах. [90]
Анализ мощности и охлаждения , также называемый тепловой оценкой, измеряет относительные температуры в определенных областях, а также способность систем охлаждения выдерживать определенные температуры окружающей среды. [91] Анализ электропитания и охлаждения может помочь выявить горячие точки, области переохлаждения, которые могут обеспечить большую плотность энергопотребления, точку останова загрузки оборудования, эффективность стратегии фальшпола и оптимальное расположение оборудования (например, кондиционеров переменного тока). единиц) для балансировки температур в центре обработки данных. Плотность охлаждения мощности — это мера площади, которую центр может охлаждать при максимальной мощности. [92] Охлаждение центров обработки данных является вторым по величине потребителем энергии после серверов. Энергия охлаждения варьируется от 10% от общего энергопотребления в наиболее эффективных центрах обработки данных и достигает 45% в стандартных центрах обработки данных с воздушным охлаждением.
Анализ энергоэффективности измеряет энергопотребление ИТ-оборудования и оборудования центра обработки данных. Типичный анализ энергоэффективности измеряет такие факторы, как эффективность использования энергии (PUE) центра обработки данных в соответствии с отраслевыми стандартами, выявляет механические и электрические источники неэффективности и определяет показатели управления воздухом. [93] Однако ограничением большинства современных показателей и подходов является то, что они не включают ИТ в анализ. Тематические исследования показали, что комплексный подход к вопросам энергоэффективности в центре обработки данных позволяет достичь значительного уровня эффективности, который в противном случае был бы невозможен. [94]
В этом типе анализа используются сложные инструменты и методы для понимания уникальных тепловых условий, присутствующих в каждом центре обработки данных, — прогнозирования температуры, воздушного потока и поведения давления в центре обработки данных для оценки производительности и энергопотребления с использованием численного моделирования. [95] Прогнозируя влияние этих условий окружающей среды, CFD-анализ центра обработки данных можно использовать для прогнозирования воздействия стоек с высокой плотностью, смешанных со стойками с низкой плотностью [96] , а также дальнейшего воздействия на ресурсы охлаждения, плохое управление инфраструктурой. практики, а также сбой или отключение переменного тока для планового технического обслуживания.
Для картирования тепловых зон используются датчики и компьютерное моделирование для создания трехмерного изображения горячих и холодных зон в центре обработки данных. [97]
Эта информация может помочь определить оптимальное расположение оборудования центра обработки данных. Например, критически важные серверы могут быть размещены в прохладной зоне, обслуживаемой резервными блоками переменного тока.
Центры обработки данных потребляют много энергии, потребляемой по двум основным направлениям: мощность, необходимая для работы реального оборудования, а также мощность, необходимая для охлаждения оборудования. Энергоэффективность снижает первую категорию.
Сокращение затрат на охлаждение за счет естественных средств включает в себя принятие решений о местоположении: когда основное внимание уделяется хорошему оптоволоконному соединению, подключению к электросетям и концентрации людей для управления оборудованием, центр обработки данных может находиться в нескольких милях от пользователей. Массовые центры обработки данных, такие как Google или Facebook, не обязательно должны располагаться рядом с населенными пунктами. Арктические места, где можно использовать наружный воздух для охлаждения, становятся все более популярными. [98]
Возобновляемые источники электроэнергии – еще один плюс. Таким образом, страны с благоприятными условиями, такие как Канада, [99] Финляндия, [100] Швеция, [101] Норвегия, [102] и Швейцария [103] пытаются привлечь центры обработки данных облачных вычислений.
Очень сложно повторно использовать тепло, поступающее от центров обработки данных с воздушным охлаждением. По этой причине инфраструктуры дата-центров чаще оборудуются тепловыми насосами. [104] Альтернативой тепловым насосам является внедрение жидкостного охлаждения во всем центре обработки данных. Различные методы жидкостного охлаждения смешиваются и сочетаются, чтобы создать инфраструктуру с полностью жидкостным охлаждением, которая улавливает все тепло с помощью воды. Различные жидкостные технологии подразделяются на 3 основные группы: непрямое жидкостное охлаждение (стойки с водяным охлаждением), прямое жидкостное охлаждение (прямое охлаждение чипа) и полное жидкостное охлаждение (полное погружение в жидкость, см. Иммерсионное охлаждение сервера ). Такое сочетание технологий позволяет создать тепловой каскад как часть сценариев температурной цепочки для создания выходов высокотемпературной воды из центра обработки данных.
Динамическая инфраструктура [105] обеспечивает возможность интеллектуального, автоматического и безопасного перемещения рабочих нагрузок внутри центра обработки данных [106] в любое время и в любом месте для миграции, выделения ресурсов , [107] для повышения производительности или создания объектов совместного размещения . Это также облегчает выполнение планового обслуживания физических или виртуальных систем, сводя при этом к минимуму перерывы в работе. Связанной с этим концепцией является составная инфраструктура, которая позволяет динамически реконфигурировать доступные ресурсы в соответствии с потребностями только при необходимости. [108]
Побочные преимущества включают в себя
Сегодня связь в центрах обработки данных чаще всего основана на сетях , использующих набор интернет-протоколов . Центры обработки данных содержат набор маршрутизаторов и коммутаторов , которые передают трафик между серверами и во внешний мир [110] , которые подключены в соответствии с сетевой архитектурой центра обработки данных . Резервирование интернет-соединения часто обеспечивается за счет использования двух или более вышестоящих поставщиков услуг (см. Multihoming ).
Некоторые серверы в центре обработки данных используются для запуска основных служб Интернета и интрасети , необходимых внутренним пользователям организации, например серверы электронной почты, прокси-серверы и DNS- серверы.
Также обычно развертываются элементы сетевой безопасности: межсетевые экраны , VPN- шлюзы , системы обнаружения вторжений и так далее. Также распространены системы мониторинга сети и некоторых приложений. Также типичны дополнительные системы дистанционного мониторинга на случай сбоя связи внутри дата-центра.
Невзаимоисключающими вариантами резервного копирования данных являются:
Обслуживание на месте является традиционным [111] , и одним из его основных преимуществ является немедленная доступность.
Методы резервного копирования данных включают в себя наличие зашифрованной копии данных за пределами офиса. Для передачи данных используются следующие методы: [112]
Для быстрого развертывания или аварийного восстановления несколько крупных поставщиков оборудования разработали мобильные/модульные решения, которые можно установить и ввести в эксплуатацию за очень короткий промежуток времени.
Микроцентры обработки данных (MDC) — это центры обработки данных уровня доступа, которые меньше по размеру, чем традиционные центры обработки данных, но предоставляют те же функции. [115] Обычно они располагаются рядом с источником данных, чтобы уменьшить задержки связи, поскольку их небольшой размер позволяет распределить несколько MDC на большой территории. [116] [117] MDC хорошо подходят для интерфейсных приложений, ориентированных на пользователя. [118] Они обычно используются в периферийных вычислениях и других областях, где необходима обработка данных с низкой задержкой. [119]
дата-центр.. гигантский.. объект.. 15 таких зданий и еще шесть.. в стадии строительства.
{{cite journal}}
: Требуется цитировать журнал |journal=
( помощь )«Друзья не позволяют друзьям строить центры обработки данных», — сказал Чарльз Филлипс, генеральный директор Infor, производителя программного обеспечения для бизнеса.
{{cite magazine}}
: Журналу Cite требуется |magazine=
( помощь ){{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка )