Материалы по тегу: охлаждение
05.12.2024 [08:26], Владимир Мироненко
ЦОД солнечной обсерватории NASA SDO затопило — ремонт продлится до 2025 годаИз-за прорыва трубы системы охлаждения в серверной объединённого центра космических операций NASA при Стэнфордском университете (JSOC) вышло из строя оборудование, использовавшееся для обработки данных об активности Солнца, поступающих от обсерватории солнечной динамики (SDO), а также с космического зонда IRIS. Об этом сообщил ресурс Space. Из-за сильного затопления был нанесён значительный ущерб лаборатории, где размещаются серверы, «обрабатывающие и распределяющие данные с инструментов Helioseismic and Magnetic Imager (HMI) и Atmospheric Imaging Array (AIA), а также с космического аппарата IRIS», сообщили члены команды JSOC, добавив, что ремонт продлится до 2025 года. Учёные также отметили, что обработка научных данных, поступающих с HMI, AIA и IRIS, будет отложена на продолжительное время, как и доступ к архивным данным в JSOC. SDO в целом ежемесячно предоставляет около 42 Тбайт данных. Хотя данные с SDO продолжат поступать, их пока нельзя обрабатывать в режиме реального времени, что негативно отразится на возможности оценки солнечной погоды. Сообщается, что до восстановления оборудования JSOC данные с прибора HMI будут храниться в Нью-Мексико. SDO, запущенная на орбиту в 2010 году, позволяет вести наблюдения за Солнцем, уделяя особое внимание его магнитному полю, циклам активности и влиянию на Солнечную систему, и помогает учёным лучше понять, как солнечная активность влияет на жизнь на Земле. HMI и AIA — два из трёх научных инструментов SDO. Как сообщается, данный инцидент не отразился на обработке данных, собираемых третьим инструментом, Extreme Ultraviolet Variability Experiment (EVE).
30.11.2024 [15:52], Сергей Карасёв
Iceotope представила KUL AI — GPU-сервер на платформе Gigabyte с необычной СЖОКомпания Iceotope анонсировала сервер KUL AI, предназначенный для поддержания самых требовательных рабочих нагрузок ИИ. Новинка базируется на аппаратной платформе Gigabyte G293, интегрированной с высокоэффективной гибридной СЖО Iceotope Precision Liquid Cooling, сочетающей прямое жидкостное охлаждение с погружным охлаждением в одном шасси. Известно, что в сервере применяются процессоры Intel Xeon. Установлены восемь ускорителей. Устройство имеет аккредитацию NVIDIA Certified-Solutions. Оно оптимизировано по конструкции для жидкостного охлаждения на основе диэлектрических теплоносителей. Утверждается, что благодаря системе Iceotope Precision Liquid Cooling сервер KUL AI обеспечивает бесперебойную и надёжную работу при поддержании оптимальной температуры. При этом достигается защита критически важных компонентов и сводится к минимуму частота отказов даже во время интенсивных и продолжительных ИИ-нагрузок. Устройство имеет размеры 121 × 53 × 13,5 см и весит 99 кг. В набор интерфейсов в зависимости от варианта исполнения входят до четырёх сетевых портов 10Gb RJ-45 и QSFP28 или SFP28, порты USB 3.2 Type-A, аналоговый разъём D-Sub и коннектор 1Gb RJ-45. Говорится о практически бесшумной работе и герметичном исполнении. По заявлениям разработчика, новинка идеально подходит для чувствительных к задержкам периферийных вычислений, включая среды с экстремальными условиями эксплуатации. «KUL AI позволяет организациям развёртывать ИИ везде, где это необходимо, открывая новые возможности в плане операционной эффективности и инноваций даже в самых сложных IT-средах», — заявляет Iceotope.
21.11.2024 [09:44], Сергей Карасёв
Maxwell Labs представила технологию фотонного охлаждения для ЦОДMaxwell Labs анонсировала программу раннего доступа к первому в мире решению для твердотельного фотонного охлаждения оборудования в дата-центрах. Система под названием MXL-Gen1 призвана удовлетворить растущие потребности в ресурсоёмких нагрузках, связанных с ИИ и HPC. Технология фотонного охлаждения Maxwell Labs преобразует тепло, генерируемое серверными компонентами, в свет. Ожидается, что данное решение произведёт революцию в сфере охлаждения ЦОД на фоне повышения мощности чипов и увеличения плотности размещения оборудования в стойках. В детали относительно архитектуры MXL-Gen1 компания не вдаётся. Отмечается, что в системе применяются лазеры, тогда как побочным продуктом работы изделия является свет, который можно использовать для генерации электричества с целью возвращения в дата-центр. У системы отсутствуют подвижные части, а для работы не требуются жидкости. Это повышает надёжность, исключает риск утечек, снижает затраты на техническое обслуживание и упрощает эксплуатацию в целом. Подчёркивается, что MXL-Gen1 легко интегрируется в существующую инфраструктуру дата-центров. При этом обеспечивается масштабируемость в соответствии с будущими требованиями к характеристикам микросхем и энергопотреблению без необходимости внесения значительных изменений в конструкцию. Технология подходит для отвода тепла от CPU и GPU. Утверждается, что по сравнению с существующими решениями MXL-Gen1 обеспечивает трёхкратный рост производительности и десятикратное повышение плотности вычислений. Пилотная фаза предварительного лицензирования стартует в декабре 2024 года.
09.11.2024 [14:59], Сергей Карасёв
Почти 3 кВт с 16 кв. см: новый термоинтерфейс обещает прорыв в сфере охлажденияАмериканские исследователи из Техасского университета в Остине (UT Austin) объявили о разработке нового материала для термоинтерфейса, который способен эффективно отводить тепло от мощных электронных компонентов, сокращая или даже полностью устраняя необходимость в активном охлаждении. Отмечается, что на охлаждение приходится около 40 % энергопотребления традиционного дата-центра. Исследователи подсчитали, что предложенная технология может уменьшить расходы энергии на охлаждение примерно на 13%, т.е. на 5 % от общего энергопотребления ЦОД. Это означает существенную экономию средств для гиперскейлеров и операторов облачных платформ. Разработанный материал изготавливается из смеси жидкого металла и нитрида алюминия. При получении состава применяется специальный механохимический метод. Этот процесс помогает жидкому металлу и нитриду алюминия смешиваться особым контролируемым образом, благодаря чему обеспечиваются уникальные свойства. Утверждается, что новый материал гораздо лучше проводит тепло, чем существующие коммерческие решения, которые используются при охлаждении компонентов IT-оборудования. В частности, по заявлениям разработчиков, термоинтерфейс предложенного типа способен отводить до 2760 Вт тепла с поверхности площадью 16 см2. Благодаря этому, например, потребление энергии, которая необходима для работы охлаждающего насоса, может быть сокращено на 65 %. В настоящее время полученный материал тестируется в лабораторных условиях. В дальнейшем команда UT Austin намерена организовать полномасштабные испытания с участием заинтересованных партнёров на рынке дата-центров.
18.10.2024 [14:53], Руслан Авдеев
Schneider Electric приобрела за $850 млн контрольный пакет акций производителя СЖО MotivairПоставщик инженерной инфраструктуры Schneider Electric приобрёл контрольный пакет акций компании Motivair Corporation. Последняя специализируется на системах жидкостного охлаждения для HPC- и ИИ-платформ и других критических систем. По данным The Register, позже будет выкуплена и оставшаяся доля компании. На первом этапе Schneider Electric выплатит из своих средств $850 млн за 75 % акций Motivair Corporation. Сделка должна быть закрыта в ближайшие кварталы. Компания намерена к 2028 году выкупить оставшиеся 25 % акций. Бизнес вольётся в подразделение Schneider Electric Energy Management, которое тоже специализируется на технологиях прямого жидкостного охлаждения и теплообмена в целом. У Motivair довольно большой опыт оснащения системами жидкостного охлаждения суперкомпьютеров. Руководство компании считает, что поглощение более крупным игроком поможет ей масштабировать бизнес и получить инвестиции на развитие новых технологий. В Schneider Electric уверены, что, хотя СЖО сами по себе не являются принципиально новым решением, у технологии большое будущее в секторе ЦОД. Во многом успеху СЖО будет способствовать распространение генеративного ИИ и повсеместное внедрение больших языковых моделей (LLM), ставших катализаторами роста энергопотребления. О росте энергопотребления ЦОД и возможных проблем с охлаждением говорится и в недавнем отчёте Международного энергетического агентство (IEA). В целом отраслевые эксперты уверены, что жидкостное охлаждение более эффективно для новых высокоплотных ЦОД в сравнении с воздушным, хотя расход воды может оказаться значительно больше, установка оборудования — дороже, а ущерб для экологии — выше. Ранее Schneider Electric фактически установила лимит в 20 кВт/стойку, выше которого без СЖО обойтись никак не удастся. Компания склоняется к системам прямого охлаждения (DLC) с водоблоками для горячих компонентов, а к погружным СЖО относится прохладно, особенно к двухфазным.
17.10.2024 [19:31], Руслан Авдеев
IEA: из-за ИИ энергопотребление ЦОД взлетит, но всё равно останется очень небольшим в мировом масштабеКак заявило Международное энергетическое агентство (IEA) в ежегодном отчёте «Перспективы мировой энергетики» (World Energy Outlook), глобальный спрос на электроэнергию стремительно растёт. По данным агентства, в следующие 10 лет ежегодный прирост будет сравним с энергопотреблением целой Японии. Это повлияет на показатели сокращения выбросов, а спрос в 2035 году будет на 6 % выше, чем прогнозировалось ранее. Что касается ЦОД, потребление будет стремительно расти из-за роста рынка ИИ и цифровизации в целом, однако на этот сектор по-прежнему будет приходиться лишь небольшая часть от общемировых энергетических затрат. Впрочем, пока прогнозы носят очень приблизительный характер, с учётом непредсказуемости проблем в цепочках поставок, увеличения энергоэффективности, политических факторов и т.п. Долгое время рост энергопотребления сдерживался переносом нагрузок со старых корпоративных площадок в гораздо более эффективные облака. Однако этот козырь уже использован, а рост ИИ-нагрузок приведёт к взлёту энергопотребления на невиданный ранее уровень. Так, по оценкам IEA, энергопотребление дата-центров в 2022 году составило 230–340 ТВт∙ч, т.е. около 1 %–1,3 % от общемирового без учёта расходов на сети передачи данных и майнинг. Впрочем, в любом случае на долю ЦОД не будет приходиться основная доля потребления. Например, базовый сценарий предполагает, что на ЦОД будет приходиться менее 10 %% от общего роста спроса. Примерно такой же рост покажет индустрия опреснения воды, а у электромобилей запросы будут минимум втрое выше. Агентство упомянуло об агрессивных инвестициях операторов ЦОД в возобновляемые источники энергии. Другими словами, устойчивое развитие сектора вполне осуществимо. Однако ограниченные возможности генерации и лимиты энергосетей могут оказать более серьёзное влияние «на местах», поскольку подходящих площадок для ЦОД всё меньше. Как правило, дата-центры концентрируются в одном регионе. В результате в Вирджинии (США) или Ирландии энергии недостаточно, а в Сингапуре и Амстердаме даже введены временные моратории. Дальше будет сложнее, поскольку ЦОД ёмкостью от 1 ГВт скоро станут вполне распространённым явлением. В случае с США, по оценкам IEA, ситуация с размещением ЦОД хуже, чем с заводами, электростанциями и складами. Чтобы корректно оценить перспективы роста спроса на ЦОД, политикам, бизнесу и другим структурам следует теснее сотрудничать. В частности, в IEA отмечают участившиеся случаи аномальной жары, которые негативно влияют на энергопотребление систем охлаждения и энергоэффективность объектов в целом. Всего, по оценкам IEA, в мире насчитывается около 11 тыс. дата-центров.
15.10.2024 [16:40], Руслан Авдеев
Вот это оборот: потока воздуха от чиллеров оказалось достаточно для работы малых ветряных турбинНедавнее исследование показало, что небольшие ветряные турбины при установке на системы охлаждения дата-центров могут генерировать достаточно электроэнергии, чтобы это было экономически выгодно. По информации Dcatacenter Dynamics, соответствующие эксперименты провели на действующем ЦОД в Колумбии. Согласно публикации в журнале Scientific Reports, исследование, проведённое Дистанционным университетом Мадрида (Universidad a Distancia de Madrid) совместно с колумбийской компанией Grupo ZFB, показало эффективность подхода. Исследователи использовали «ветер» от систем охлаждения колумбийского ЦОД. Объект имеет три чиллера с восемью блоками вентиляторов в каждом. Вентиляторы вращаются со скоростью до 900 об./мин., а их номинальная мощность составляет 2,4 кВт. Поток воздуха от них является достаточно стабильным и мощным для попутной генерации электричества. Впрочем, обычный ветер тоже принимает участие в выработке энергии. ![]() Источник изображения: Isabel C. Gil-García, Ana Fernández-Guillamón, Álvaro H. Montes-Torres / Scientific Reports Для эксперимента выбрали вертикальные ветряные турбины Tesup V7 — за их компактность и лёгкую конструкцию. Шесть малых турбин установили над вентиляторами. Два из трёх чиллеров работают постоянно, что, согласно подсчётам, позволяет генерировать 513,82 МВт∙ч в год. С учётом запланированных и незапланированных простоев получается 467,6 МВт∙ч ежегодно, что само по себе позволяет избежать выбросов 300 т CO2 в год. Сами вентиляторы при номинальной мощности потребляют 336,39 МВт∙ч, так что в чистом остатке получается 131,2 МВт∙ч, которые можно направить на нужды другого инженерного оборудования ЦОД. ![]() Источник изображения: Isabel C. Gil-García, Ana Fernández-Guillamón, Álvaro H. Montes-Torres / Scientific Reports Данное исследование — часть более масштабных изменений в секторе ЦОД. Операторы пытаются нарастить эффективность дата-центров. Так, многие из них начали активно инвестировать в системы использования «мусорного» тепла, передавая, его, например, в районные системы отопления или для обогрева бассейнов. Использование малых ветряных турбин может стать ещё одним способом оптимизации работы дата-центров для улучшения общей эффективности и достижения целей по обеспечению нулевых выбросов. Экономическая выгода будет зависеть от стоимости турбин и затрат на их обслуживание, а также срока эксплуатации. Но предварительные расчёты показывают, что данный подход оправдан.
14.10.2024 [14:00], Сергей Карасёв
HPE представила архитектуру прямого жидкостного охлаждения без вентиляторовКомпания HPE анонсировала, как утверждается, первую в отрасли архитектуру прямого жидкостного охлаждения (DLC), в составе которой вообще не используются вентиляторы. Решение ориентировано на дата-центры для ресурсоёмких нагрузок ИИ и НРС. Отмечается, что эффективность ИИ-ускорителей следующего поколения повышается, но их энергопотребление продолжает расти. Поэтому ЦОД, рассчитанные на масштабные рабочие нагрузки ИИ, внедряют новые системы охлаждения. Наиболее эффективной технологией, как заявляет HPE, на сегодняшний день является DLC. Представленное решение включает жидкостное охлаждение для CPU и GPU, blade-сервера целиком, локального хранилища, сетевой фабрики, стойки, модуля/кластера и блок распределения охлаждающей жидкости (CDU). Применяется высокоплотная конструкция с интегрированной сетевой фабрикой, дополненная специальным ПО для мониторинга. При этом обеспечивается гибкость выбора ИИ-ускорителей. «Новая архитектура прямого жидкостного охлаждения обеспечивает снижение энергопотребления на 90 % по сравнению с традиционными системами воздушного охлаждения», — говорит Антонио Нери (Antonio Neri), президент и генеральный директор HPE. ![]() Источник изображения: HPE Полностью безвентиляторная архитектура DLC обеспечивает ряд преимуществ по сравнению с другими решениями. В частности, затраты на охлаждение «лезвия» сокращаются на 37 % по сравнению с гибридным прямым жидкостным охлаждением. Это позволяет снизить расходы на коммунальные услуги, а также уменьшить выбросы вредных газов в атмосферу. Кроме того, достигается высокая плотность монтажа оборудования, благодаря чему занимаемые площади в ЦОД могут быть уменьшены в два раза. Отметим, что российская Группа компаний РСК давно предлагает узлы (в том числе с ускорителями), СХД, коммутаторы и стойки с полностью жидкостным охлаждением.
06.10.2024 [12:41], Сергей Карасёв
Разработчик систем погружного охлаждения Submer получил на развитие $55,5 млнКомпания Submer, специализирующаяся на системах иммерсионного охлаждения для дата-центров, объявила о проведении раунда финансирования Series C, в ходе которого на развитие привлечено $55,5 млн. Программу возглавила инвестиционная фирма M&G, под управлением которой находятся активы в размере £346,1 млрд (около $454,1 млрд). Submer была основана в 2015 году. Её штаб-квартира находится в Барселоне (Испания), тогда как производственная площадка Gigafactory располагается в Хьюстоне (Техас, США). Компания занимается разработкой систем погружного охлаждения для высоконагруженных ЦОД. При этом применяется нетоксичная охлаждающая жидкость SmartCoolant: она обеспечивает высокую эффективность в широком диапазоне температур, безопасность и стабильность состава. Кроме того, компания сотрудничает с другими производителями жидкостей. Согласно отчету Международного энергетического агентства (IEA), в 2022 году дата-центры по всему миру потребили 460 ТВт·ч энергии, что составляет почти 2 % от глобальных затрат. По прогнозам, к 2026 году этот показатель удвоится. Вместе с тем, как утверждает Submer, воздушное охлаждение и традиционные методы жидкостного охлаждения становятся все менее эффективными. Связано это с постоянно растущими вычислительными нагрузками в условиях стремительного развития ИИ. Решением проблемы, по заявлениям Submer, является погружное охлаждение. В новом раунде финансирования, помимо M&G, приняли участие существующие инвесторы Planet First Partners и Norrsken VC, а также Mundi Ventures. Полученные деньги будут направлены на расширение бизнес-возможностей и привлечение новых клиентов в рамках глобальной экспансии. Submer намерена уделять приоритетное внимание освоению рынков США и Азиатско-Тихоокеанского региона.
03.10.2024 [18:59], Руслан Авдеев
Perstorp представила биоразлагаемую жидкость Synmerse DC для погружных СЖОШведская химическая компания Perstorp представила биоразлагаемую жидкость, предназначенную для погружных (иммерсионных) СЖО, передаёт Datacenter Dynamics. По словам компании, Synmerse DC представляет собой синтетическую жидкость, обеспечивающую безопасность и эффективность эксплуатации, это снижает энергопотребление охлаждающих систем. Perstorp принадлежит малайзийской нефтегазовой компании Petronas, уже представившей жидкость собственной разработки для систем Iceotope. В Perstorp сообщили, что разработали жидкость при сотрудничестве с ведущими производителями чипов и OEM-компаниями для того, чтобы обеспечить её совместимость с новейшим оборудованием и погружными системами охлаждения. По словам компании, у неё богатый опыт в разработке синтетических жидкостей самого разного назначения. Компания не рассказала о составе жидкости подробно, но сообщила, что она не включает PFAS-соединения («вечные» химикаты), способные нанести вред окружающей среде. Жидкости на основе PFAS традиционно применяются в системах погружного охлаждения, но с принятием во многих странах законов, запрещающих их использование, производители ищут более экобезопасные варианты на основе растительных и минеральных масел, различных фторуглеродов и других соединений. Впрочем, ещё летом 2023 года сообщалось, что Евросоюз намерен отменить запрет на PFAS-химикаты, поскольку те очень важны для рынка СЖО. Жидкостное охлаждение набирает популярность в последние годы, поскольку ИИ-бум привёл к росту плотности размещения компонентов в серверных стойках. Другими словами, традиционные воздушные системы охлаждения часто не справляются с новыми нагрузками мощных новых серверов. Нефтегазовые компании вроде Gulf Oil, Shell, Castrol, ExxonMobil, ENEOS и SK Enmove активно ведут разработки в новой для себя нише СЖО. Свои варианты представили американский продовольственный гигант Cargill и химический концерн Chemours (Du Pont). |
|