Материалы по тегу: hardware
30.10.2024 [14:46], Руслан Авдеев
Портфолио ЦОД Blackstone выросло до $70 млрд, но компания намерена увеличить его ещё на $100 млрдBlackstone продолжает пополнять портфолио своих дата-центров. По данным Datacenter Dynamics, сейчас она управляет активами ЦОД на $70 млрд, но уже готова увеличить их ещё на $100 млрд. Примечательно, как заметно планы и показатели компании изменились с прошлого квартала. В III календарном квартале 2024 года компания располагала ЦОД «всего» на $55 млрд и только-только намеревалась построить объекты на $70 млрд. Впрочем, основной причиной роста в последние месяцы стало приобретение Blackstone компании AirTrunk за AU$24 млрд ($16 млрд). Как заявил покупатель, сегодня Blackstone является крупнейшим провайдером ЦОД в мире, с объектами в США, Европе, Индии и Японии. AirTrunk, по оценкам Blackstone, была крупнейшим оператором ЦОД в Азиатско-Тихоокеанском регионе. В компании заявили, что оценили потенциал новой сферы и всего за три года масштабировали соответствующий бизнес до «крупнейшего в мире». Впрочем, много ещё предстоит сделать. В частности, компания займётся решение проблем с энергоснабжением ЦОД, что со временем откроет дополнительные возможности для инвестиций. По словам представителя компании, ЦОД остались крупнейшим драйвером роста в III квартале в инфраструктурных проектах, связанных с недвижимостью, а также для компании в целом. Тот факт, что у компании оказались масштабные запасы капитала, стало огромным конкурентным преимуществом — на покупку и развитие соответствующих бизнесов требуется немало средств. По данным компании, с момента покупки QTS за $10 млрд в 2021 году, ёмкость арендуемых мощностей её ЦОД выросла в восемь раз. При этом Blacskstone располагает не только ЦОД, но и сопутствующей инфраструктурой, доступом к энергии и прочим активам. В Blackstone утверждают, что компания является ведущим поставщиком финансирования для приблизительно 15 % всех проектов возобновляемой энергетики в США за последние 12 месяцев. Помимо QTS и AirTrunk, Blackstone неоднократно инвестировала и в другие проекты, связанные с ЦОД, включая Vnet, Lumina CloudInfra, Copeland, Park Place Technologies и Winthrop Technologies, а также имеет совместные инвестиционные проекты с COPT, Digital Realty и другими компаниями. Так, Blackstone вложит £10 млрд в создание крупнейшего ЦОД в Европе ЦОД в Великобритании.
30.10.2024 [13:53], Владимир Мироненко
Квартальные показатели AMD превысили прогнозы аналитиков, но инвесторы остались недовольны — акции упали на 7 %Advanced Micro Devices (AMD) сообщила финансовые результаты III квартала, завершившегося 28 сентября 2024 года. Несмотря на то, что прибыль совпала с прогнозами, а выручка немного превзошла ожидания Уолл-стрит, акции компании упали после оглашения итогов на 7 %, поскольку инвесторов не устроил прогноз на IV квартал и ожидания по выпуску ИИ-ускорителей в 2025 году. Выручка AMD в III квартале составила $6,82 млрд, что выше результата аналогичного квартала в 2023 году на 18 %, а также выше консенсус-прогноза аналитиков, опрошенных LSEG, составившего $6,71 млрд. Чистая прибыль (GAAP) в размере $771 млн или 47 центов на акцию превысила на 158 % показатель III квартала прошлого года, равный $299 млн (18 центов на акцию). Скорректированная прибыль (Non-GAAP) равняется $1,50 млрд или $0,92 на акцию, что на 33 % больше показателя годичной давности и совпало с консенсус-прогнозом аналитиков, предоставленным LSEG. «Мы добились сильных финансовых результатов в III квартале с рекордной выручкой, обусловленной ростом продаж продуктов для ЦОД EPYC и Instinct, а также высоким спросом на наши процессоры Ryzen для ПК», — заявила генеральный директор AMD д-р Лиза Су (Lisa Su). Выручка компании в сегменте ЦОД выросла более чем в два раза (на 122 %) год к году и на 25 % последовательно, составив $3,5 млрд. Драйверами роста были рост поставок ускорителей AMD Instinct и увеличение продаж процессоров AMD EPYC. В отчётном квартале продажи чипов для ЦОД принесли AMD более половины выручки. Лиза Су не назвала конкретные цифры продаж, отметив, что выручка от реализации ускорителей AMD Instinct в минувшем квартале составила более $1,5 млрд. Для сравнения, во II квартале было продано AMD Instinct на более, чем $1 млрд. Продажи в сегменте встраиваемых систем упали год к году на 25% до $927 млн, поскольку клиенты привели к норме уровень запасов. Впрочем, здесь зафиксированы признаки восстановления, так как продажи выросли последовательно на 8 %. Сегмент клиентских решений увеличил выручку год к году на 29 % до $1,9 млрд, а в игровом сегменте выручка упала год к году на 69 % до $462 млн. В IV квартале 2024 года AMD ожидает, что выручка составит около $7,5 млрд ± $300 млн, что в средней точке выше прошлогоднего показателя на 22 % и соответствует консенсус-прогнозу аналитиков Уолл-стрит, ожидающим $1,16 скорректированной прибыли (Non-GAAP) на акцию при $7,54 млрд выручки. Также AMD повысила прогноз продаж по ИИ-ускорителям до $5 млрд в 2025 году.
30.10.2024 [13:08], Руслан Авдеев
DigitalBridge купит британского строителя и оператора ЦОД YondrУправляющая альтернативными активами компания DigitalBridge Group сообщила о заключении соглашения о покупке Yondr Group через один из своих инвестиционных фондов. По данным Bloomberg, сделка будет закрыта уже в начале 2025 года. Сообщается, что Yondr продолжит действовать в качестве независимой структуры в составе портфеля DigitalBridge, уже включающего компании Vantage, Switch, DataBank, Scala, а также другие бизнесы. По словам представителя DigitalBridge, активы Yondr и крепкие связи компании с клиентами из числа ведущих гиперскейлеров будут способствовать планам по развитию цифровой инфраструктуры. Yondr расширит портфолио ЦОД, принадлежащих DigitalBridge, и усилит возможности компании поддерживать проекты гиперскейлеров. Вместе компании смогут заработать на растущем спросе на дата-центры гиперскейл-класса, подогреваемом развитием ИИ, облачных вычислений и продолжающейся цифровой трансформацией в самых разных отраслях. Лондонская Yondr принадлежит Cathexis, Apollo Global Management и Mubadala и занимается как строительством, так и управлением ЦОД. Компания реализует проекты в Вирджинии (США), Великобритании, Малайзии, Японии, Германии и Индии. Согласно пресс-релизу более 420 МВт ёмкостей Yondr выделено на нужды гиперскейлеров, а в перспективе есть возможность увеличить ёмкость до более 1 ГВт. Эксклюзивным финансовым консультантом Yondr выступила Citi, а юридическим советником — White & Case LLP. Linklaters, Deloitte, Ramboll и Nomura были юридическими, финансовыми, техническими и финансовыми консультантами DigitalBridge. Пока непонятно, как скажется сделка на бизнесе фонда Mubadala Investment Co. — в августе он сообщал, что намерен инвестировать в Yondr.
30.10.2024 [12:00], Сергей Карасёв
NVIDIA представила эталонные архитектуры для корпоративных ИИ-фабрикКомпания NVIDIA анонсировала инициативу Enterprise Reference Architectures (Enterprise RA), в рамках которой партнёры и заказчики смогут использовать эталонные архитектуры для построения собственных ИИ-платформ корпоративного уровня, рассчитанных на ресурсоёмкие нагрузки. NVIDIA отмечает, что на фоне перехода от вычислений общего назначения к ускоренным вычислениям предприятия сталкиваются с различными трудностями при проектировании и развёртывании инфраструктуры ЦОД. Это затрудняет разработку долгосрочных стратегий и снижает эффективность инвестиций. Инициатива Enterprise RA призвана решить проблемы. Эталонные архитектуры Enterprise RA помогут организациям минимизировать ошибки при проектировании так называемых фабрик ИИ (дата-центров для задач ИИ), предоставляя комплексные рекомендации по аппаратному и программному обеспечению, а также подробные указания по оптимальным конфигурациям серверов, кластеров и сетей. В результате клиенты смогут снизить затраты и сократить время, необходимое для построения вычислительной ИИ-инфраструктуры нового поколения. Среди преимуществ предлагаемого подхода названы масштабируемость и управляемость, высокий уровень безопасности (применяется принцип нулевого доверия), оптимальная производительность, снижение сложности систем и ускоренный выход на рынок. Эталонные архитектуры спроектированы таким образом, чтобы их можно было легко модернизировать в будущем. Говорится о совместимости с различными сторонними аппаратными и программными компонентами, но в перечень рекомендаций входят прежде всего решения самой NVIDIA, включая:
Решения на базе NVIDIA Enterprise RA будут предлагаться партнёрами NVIDIA, включая Dell, НРЕ, Lenovo и Supermicro.
30.10.2024 [11:49], Сергей Карасёв
OpenAI разрабатывает собственные ИИ-чипы совместно с Broadcom и TSMC, а пока задействует AMD Instinct MI300XКомпания OpenAI, по информации Reuters, разрабатывает собственные чипы для обработки ИИ-задач. Партнёром в рамках данного проекта выступает Broadcom, а организовать производство изделий планируется на мощностях TSMC ориентировочно в 2026 году. Слухи о том, что OpenAI обсуждает с Broadcom возможность создания собственного ИИ-ускорителя, появились минувшим летом. Тогда говорилось, что эта инициатива является частью более масштабной программы OpenAI по увеличению вычислительных мощностей компании для разработки ИИ, преодолению дефицита ускорителей и снижению зависимости от NVIDIA. Как теперь стало известно, OpenAI уже несколько месяцев работает с Broadcom над своим первым чипом ИИ, ориентированным на задачи инференса. Соответствующая команда разработчиков насчитывает около 20 человек, включая специалистов, которые ранее принимали участие в проектировании ускорителей TPU в Google, в том числе Томаса Норри (Thomas Norrie) и Ричарда Хо (Richard Ho). Подробности о проекте не раскрываются. Reuters, ссылаясь на собственные источники, также сообщает, что OpenAI в дополнение к ИИ-ускорителям NVIDIA намерена взять на вооружение решения AMD, что позволит диверсифицировать поставки оборудования. Речь идёт о применении изделий Instinct MI300X, ресурсы которых будут использоваться через облачную платформу Microsoft Azure. Это позволит увеличить вычислительные мощности: компания OpenAI только в 2024 году намерена потратить на обучение ИИ-моделей и задачи инференса около $7 млрд. Вместе с тем, как отмечается, OpenAI пока отказалась от амбициозных планов по созданию собственного производства ИИ-чипов. Связано это с большими финансовыми и временными затратами, необходимыми для строительства предприятий.
29.10.2024 [20:28], Сергей Карасёв
Раскрыты подробности архитектуры ИИ-кластера xAI Colossus со 100 тыс. ускорителей NVIDIA H100Портал ServeTheHome рассказал подробности об архитектуре вычислительного кластера xAI Colossus, предназначенного для обучения крупных ИИ-моделей. Эта система использует 100 тыс. NVIDIA H100, а в дальнейшем количество ускорителей планируется увеличить вдвое. Это самый крупный из известных ИИ-кластеров на текущий момент. Оборудование для него поставили компании Dell и Supermicro. Стартап xAI, курируемый Илоном Маском (Elon Musk), объявил о запуске суперкомпьютера Colossus в начале сентября нынешнего года. Утверждается, что на создание системы потребовалось всего 122 дня. Причём с момента установки первой стойки с серверами до начала обучения ИИ-моделей прошло только 19 суток. Впрочем, как отмечают эксперты, поскольку машина является «однозадачной», т.е. в отличие от традиционных суперкомпьютеров предназначенной только для работы с ИИ, ускорить строительство было не так уж сложно, хотя результат всё равно впечатляющий. Как сообщается, в составе Colossus применены серверы на платформе NVIDIA HGX H100, оборудованные системой жидкостного охлаждения. Каждый узел Supermicro серии TNHR2-LCC типоразмера 4U содержит восемь ускорителей NVIDIA H100 и два CPU. Узел разделён на две половинки, одна с CPU и PCIe-коммутаторами и одна с HGX-платой, которые могут извлекаться независимо для простоты обслуживания. CPU, коммутаторы и ускорители охлаждаются посредством СЖО. Вентиляторы в шасси тоже есть. Воздух от них попадает на теплообменники на задней двери, которые уносят остаточное тепло. Холодных и горячих коридоров в ЦОД нет, воздух имеет одинаковую температуру во всём зале. В нижней части стоек располагается ещё один 4U-блок Supermicro для CDU с резервированием и поддержкой горячей заменой насосов. Каждый сервер имеет четыре блока питания с резервированием и возможностью горячей замены, которые подключены к трёхфазным PDU. Одна стойка объединяет восемь узлов NVIDIA HGX H100, между которыми располагаются коллекторы СЖО в формате 1U. Таким образом, каждая стойка насчитывает 64 экземпляра H100. Стойки организованы в группы по восемь штук, которые образуют малые кластеры из 512 ускорителей H100. Они в свою очередь объединены в т.н. «острова» по 25 тыс. ускорителей, каждому из которых полагается собственный машинный зал. Общее количество стоек в составе Colossus превышает 1500. Помимо узлов с ускорителями также есть CPU-узлы и узлы хранения All-Flash (1U). Как отмечает NVIDIA, в кластере Colossus задействована сетевая платформа Spectrum-X Ethernet. Применены коммутаторы Spectrum-X SN5600 и сетевые карты на базе чипа BlueField-3. Компания говорит об использовании трёхуровневой Ethernet-сети с 400GbE-подключением, но точная топология не указана. Судя по всему, выделенной сети для работы с хранилищем не предусмотрено. Каждом ускорителю полагается один 400GbE-адаптер SuperNIC, который и объединяет их в RDMA-сеть. Кроме того, у каждого GPU-узла есть ещё один 400GbE DPU, а также подключение к сервисной сети. Сетевые карты находятся в собственных лотках, благодаря чему их можно заменять без демонтажа шасси. По словам NVIDIA, уровень утилизации сети достигает 95 %. В качестве энергетического буфера между электросетью и суперкомпьютером используются аккумуляторные банки Tesla Megapack ёмкостью 3,9 МВт·ч каждый. Они необходимы для того, чтобы компенсировать всплески потребляемой мощности, когда нагрузка на ускорители резко возрастает в силу выполняемых ИИ-задач. Впрочем, вероятно, есть и ещё одна причина для такого решения — на первом этапе Colossus был лишён подключения к основной энергосети и в вопросе питания во многом полагался на генераторы.
29.10.2024 [14:36], Руслан Авдеев
Загадочная компания намерена построить в Италии ЦОД за €30 миллиардовМинистр промышленности Италии Адольфо Урсо (Adolfo Urso) объявил о желании неназванной компании реализовать в стране проект строительства ЦОД общей стоимостью €30 млрд ($33 млрд). По информации Reuters, проект предложен неназванной иностранной корпорацией. По словам министра, представитель компании заявил, что выбор пал на Итали потому, что её можно назвать идеальным местом для дата-центров. Страна — участница «большой семёрки», находится в средиземноморском бассейне, на перекрёстке мировых информационных маршрутов. Дополнительные подробности не раскрываются. Как предполагают эксперты, подобная инвестиция способна обеспечить строительство гигаваттных кампусов ЦОД — при этом Италия всегда считалась рынком вторичным рынком дата-центров. Для сравнения, в £10 млрд ($13,3 млрд) обойдётся 1,1-ГВт проект QTS (Blackstone) в Великобритании, отмечает DataCenter Dynamics. Немногие операторы ЦОД вообще имеют доступ к таким финансовым ресурсам. При этом каждый из облачных гиперскейлеров, включая Microsoft, Google, Oracle и AWS (Amazon) уже имеют дата-центры в стране. Так, облачный регион Microsoft расположен в Милане. Компания анонсировала регион Italian Azure в мае 2020 года, а запустила его в 2023 году. Недавно компания анонсировала намерение инвестировать в расширение местной облачной инфраструктуры ещё €4,3 млрд ($4,75 млрд). Это был последний из американских гиперскейлеров, запустивший своё облако в Италии. AWS запустила регион в Милане в 2020 году и намерена инвестировать ещё. Oracle свой первый облачный регион тоже запустила в Милане в конце 2021 года. Ранее в этом году компания анонсировала планы создания второго региона в Турине при сотрудничестве с телеком-оператором Telecom Italia (TIM). Первый облачный регион Google открылся всё в том же Милане в 2022 году, с тех пор второй регион Google Cloud Platform (GCP) запустили в Турине.
29.10.2024 [11:58], Сергей Карасёв
MSI выпустила одноплатный компьютер MS-CF16 формата Pico-ITX на базе Intel Amston LakeКомпания MSI расширила ассортимент одноплатных компьютеров, анонсировав модель MS-CF16 типоразмера Pico-ITX на аппаратной платформе Intel. Новинка предназначена для создания систем промышленной автоматизации, периферийных устройств, медицинского оборудования и пр. В зависимости от модификации изделие комплектуется процессором Alder Lake-N или Amston Lake. В частности, доступны варианты с чипом Intel Processor N97 (4C/4T; до 3,6 ГГц; 12 Вт), Atom x7425E (4C/4T; до 3,4 ГГц; 12 Вт) и Atom x7433RE (4С/4Т; до 3,4 ГГц; 9 Вт). Объём оперативной памяти LPDDR5-4800 может достигать 16 Гбайт. Одноплатный компьютер располагает одним портом SATA-3 для накопителя, разъёмом М.2 E-Key 2230 (PCIe x1 + USB 2.0) для адаптера Wi-Fi и коннектором М.2 B-Key 2242/3042 (PCIe x1/SATA 3.0 + USB 3.2 Gen 2 + USB 2.0). В оснащение входят сетевые контроллеры Realtek RTL8125BG-CG 2.5GbE и Realtek RTL8111K-CG 1GbE, звуковой кодек Realtek ALC897, IO-чип Fintek F81966AB-I и ТРМ-контроллер Infineon SLB 9672VU2.0. Возможен вывод изображения одновременно на два дисплея через интерфейсы LVDS/eDP (1920 × 1200 пикселей, 60 Гц) и HDMI (3840 × 2160 точек, 30 Гц). Есть два порта USB 3.2 Type-A и два гнезда RJ45 для сетевых кабелей. Через разъёмы на плате можно задействовать два порта USB 2.0 и последовательный порт RS-232/422/485. Новинка оснащена системой пассивного охлаждения с крупным радиатором на тыльной стороне. Диапазон рабочих температур простирается от -10 до +60 °C у версий с процессором Alder Lake-N и от -40 до +70 °C у модели с чипом Amston Lake. Питание (12 В) подаётся через DC-разъём. Габариты составляют 101 × 73 мм. Заявлена совместимость с Windows 10 IoT Enterprise LTSC 2021, Windows 11 IoT Enterprise LTSC 22H2 и Linux.
29.10.2024 [11:45], Сергей Карасёв
ASRock Rack представила плату TURIN2D48G-2L+, которая поддерживает 24 Тбайт DDR5Компания ASRock Rack анонсировала материнскую плату TURIN2D48G-2L+, предназначенную для построения серверов на платформе AMD. Новинка, выполненная в проприетарном форм-факторе, допускает установку двух процессоров семейства EPYC 9005 (Turin) или EPYC 9004 (Genoa) в исполнении Socket SP5 (LGA 6096) с показателем TDP до 500 Вт. Особенность платы заключается в наличии 48 слотов для модулей DDR5-5200 (24 слота в расчёте на CPU). При использовании изделий RDIMM-3DS ёмкостью 512 Гбайт суммарный объём ОЗУ в системе может достигать 24 Тбайт. Реализованы 12 коннекторов MCIO (PCIe 5.0 / CXL 2.0 x8), четыре разъёма MCIO (PCIe 5.0 / CXL 2.0 x8 или 8 × SATA-3), по два коннектора MCIO (PCIe 5.0 или 8 × SATA-3) и MCIO (PCIe 5.0 x8). Есть также разъём SlimSAS (PCIe 3.0 x2) и два коннектора M.2 для SSD типоразмеров 22110/2280 с интерфейсом PCIe 3.0 x4 или SATA-3. В общей сложности могут быть задействованы до 34 портов SATA-3 для подключения накопителей. В оснащение входят BMC-контроллер ASPEED AST2600, двухпортовый сетевой адаптер Intel i350 стандарта 1GbE и контроллер Realtek RTL8211F, на базе которого выполнен выделенный сетевой порт управления. Интерфейсный блок содержит три гнезда RJ45 для сетевых кабелей, два порта USB 3.2 Gen1 Type-A и аналоговый разъём D-Sub. Через разъёмы на плате можно использовать ещё два порта USB 3.2 Gen1, последовательный порт и пр. Есть шесть гнёзд для подключения вентиляторов охлаждения. Диапазон рабочих температур — от +10 до +35 °C.
28.10.2024 [17:35], Руслан Авдеев
Schneider Electric: ЦОД придётся построить газовые турбины, подключиться к АЭС и лишь потом внедрить SMR, чтобы управиться с дефицитом энергииВ условиях острого дефицита электроэнергии на фоне бурного развития ИИ операторы ЦОД ищут дополнительные источники питания, которые не зависят от магистральных сетей. Вице-президент Schneider Electric Стивен Карлини (Steven Carlini), отвечающий за инновации и технологии для дата-центров, опубликовал статью в блоге компании, где назвал наиболее вероятные источники энергии для таких объектов в кратко-, средне- и долгосрочной перспективах. Сегодня спрос на ёмкость ЦОД часто превышает предложение, особенно в регионах вроде Евросоюза, но девелоперы часто не могут найти достаточно энергии и земли для строительства новых объектов. Тем временем ИИ ЦОД требуют всё больших мощностей — согласно прогнозам экспертов, в США потребление электричества дата-центрами может превысить её поставки в ближайшие несколько лет, в том числе в связи с недостатком ЛЭП. По словам Карлини, в краткосрочной перспективе дополнением к магистральным сетям могут стать газовые турбины, установленные непосредственно на территории ЦОД. Некоторые нефтегазовые компании уже ведут переговоры с операторами ЦОД, при этом к таким проектам пока не предъявляются столь же жёсткие требования, как к стандартным электросетям. В числе прочих опций — солнечная и ветряная энергия, топливные ячейки на том или ином газе. Например, Amazon (AWS) в прошлом году анонсировала планы перевести на топливные элементы некоторые объекты в Орегоне. В среднесрочной перспективе предполагается «оживить» закрытые электростанции. Например, Microsoft заключила соглашение с Constellation Energy о возобновлении работы АЭС Three Mile Island в Пенсильвании, а AWS купила кампус ЦОД рядом с атомной электростанцией в том же штате. АЭС Duane Arnold тоже не прочь вернуть в строй. Google также рассматривает атомную энергетику как один из перспективных источников электричества. В долгосрочной перспективе Карлини предрекает успех малым модульным реакторам (SMR). Он назвал их безопасными, надёжными, эффективными и работающими на «восстановленных» ядерных отходах. Вместе с тем SMR всё ещё должны пройти многоэтапное тестирование и получить одобрение регуляторов, а пока ни одного коммерчески доступного реактора такого типа нет. По поводу целесообразности SMR для ЦОД тоже есть сомнения, отмечает The Register. Согласно докладу Institute for Energy Economics and Financial Analysis (IEEFA), миниатюрные реакторы всё ещё слишком дороги (и продолжают дорожать), слишком медленно создаются и слишком «рискованны», чтобы играть значительную роль в отказе от электростанций на ископаемом топливе. В институте считают, что на SMR деньги буквально выбрасываются, хотя их можно было бы с пользой потратить на возобновляемую энергетику. Сам Карлини считает, что единого решения для всех случаев нет — в будущем дата-центры будут получать энергию из самых разных источников, а энергосети превратятся в комплексные экосистемы с подключением классических электростанций на ископаемом топливе, газовых турбин локального значения, локальных кластеров топливных элементов и локальных же источников солнечной и ветряной энергии. Столь сложные системы должны постоянно контролироваться для бесперебойного энергоснабжения, а системы контроля, по мнению Карлини, конечно же, обеспечит Schneider Electric. |
|