Материалы по тегу: hardware
26.05.2025 [11:21], Сергей Карасёв
Supermicro представила сервер SYS-822GS-NB3RT на базе NVIDIA HGX B300Компания Supermicro представила модель SYS-822GS-NB3RT на аппаратной платформе NVIDIA HGX B300 (Blackwell Ultra) для ресурсоёмких ИИ-нагрузок. Устройство выполнено в форм-факторе 8U и . Допускается установка двух процессоров Intel Xeon 6500P или 6700P поколения Granite Rapids с высокопроизводительными Р-ядрами. Доступны 32 слота для модулей оперативной памяти DDR5 с поддержкой MRDIMM-8000. Система имеет архитектуру 8-GPU. Во фронтальной части располагаются отсеки для восьми накопителей E1.S (NVMe) с возможностью горячей замены. Кроме того, есть два внутренних слота М.2 для NVMe SSD. Сервер оснащён двумя разъёмами PCIe 5.0 х16 FHHL для DPU NVIDIA BlueField-3. Упомянуты сетевые адаптеры NVIDIA ConnectX-8 SuperNIC. Supermicro позиционирует модель SYS-822GS-NB3RT в качестве передового «строительного блока» для формирования масштабных ИИ-кластеров с воздушным охлаждением. Компания Supermicro также сообщила о том, что в её ассортименте для заказа доступны более 20 систем, поддерживающих установку ускорителей NVIDIA RTX PRO 6000 Blackwell Server Edition с 96 Гбайт памяти GDDR7. Это, в частности, многоузловые серверы SuperBlade, компактные edge-решения, серверы типоразмера 5U с поддержкой до восьми GPU-карт, системы на модульной архитектуре NVIDIA MGX для ИИ-приложений и задач НРС, а также мощные рабочие станции.
26.05.2025 [09:07], Сергей Карасёв
HighPoint представила петабайтное настольное NVMe-хранилище RocketStor 6542AWКомпания HighPoint анонсировала высокопроизводительное внешнее хранилище данных на базе NVMe SSD суммарной вместимостью 976 Тбайт. Устройство ориентировано на задачи, предполагающие интенсивный обмен информацией, включая приложения ИИ, производство контента, аналитику, резервное копирование и HPC. Новинка выполнена на основе десктопного RAID-шасси RocketStor 6542AW, которое подключается к компьютеру через сопутствующую карту расширения Highpoint RocketRAID 1544 с интерфейсом PCIe 4.0 x16. Для обмена данными служит CDFP-кабель. Возможно формирование массивов RAID 0/1/10. HighPoint установила внутрь RocketStor 6542AW восемь накопителей Solidigm D5-P5336 типоразмера U.2 с интерфейсом PCIe 4.0 x4 (NVMe 2.0). Ёмкость каждого SSD составляет 122,88 Тбайт, что в сумме даёт почти 1 Пбайт. Накопители обеспечивают скорость последовательного чтения до 7400 Мбайт/с и скорость последовательной записи до 3200 Мбайт/с. Величина IOPS (операций ввода/вывода в секунду) при произвольном чтении достигает 930 тыс. (блоки по 4 Кбайт), при произвольной записи — 25 тыс. (блоки по 32 Кбайт). В составе хранилища HighPoint эти накопители показывают общую скорость передачи данных до 28 Гбайт/с. ![]() Источник изображения: HighPoint Устройство имеет размеры 234,95 × 122,94 × 210,06 мм. В тыльной части расположены разъёмы Ethernet (100 Мбит/с), CDFP и USB Type-C. Применяется воздушное охлаждение с вентиляторами, обладающими низким уровнем шума. Диапазон рабочих температур — от +5 до +55 °C. Говорится о совместимости с Windows и Linux. Стоимость новинки не раскрывается. Шасси RocketStor 6542AW можно приобрести за $1799, в то время как каждый накопитель Solidigm D5-P5336 на 122 Тбайт обойдётся примерно в $16 345. В сумме это даёт $132 559. Для сравнения, существующее решение RocketAIC 6542AWW, которое имеет вместимость 491,52 Тбайт, доступно за $78 999.
25.05.2025 [13:19], Сергей Карасёв
ASUS показала компактный ИИ-суперкомпьютер Ascent GX10 и рабочую станцию ExpertCenter Pro ET900N G3 на базе BlackwellКомпания ASUS продемонстрировала настольные системы с ускорителями NVIDIA на архитектуре Blackwell. В частности, представлены компактный ИИ-суперкомпьютер Ascent GX10 и мощная рабочая станция ExpertCenter Pro ET900N G3 башенного типа. Устройство Ascent GX10 базируется на платформе NVIDIA DGX Spark. Установлен суперчип Grace Blackwell GB10, который содержит ускоритель Blackwell и процессор Grace с 20 ядрами Arm в конфигурации 10 × Arm Cortex-X925 и 10 × Arm Cortex-A725. Новинка обеспечивает ИИ-производительность до 1000 TOPS на операциях FP4. Компьютер располагает 128 Гбайт унифицированной системной памяти, что, как утверждает ASUS, позволяет работать с моделями ИИ, насчитывающими до 200 млрд параметров. В оснащение входит сетевой адаптер NVIDIA ConnectX-7 SmartNIC с двумя QSFP-портами. Также есть 10GbE-порт RJ45. Прочие технические характеристики не раскрываются — вероятно, они унаследованы у эталонного решения NVIDIA DGX Spark: это накопитель M.2 NVMe SSD, контроллеры Wi-Fi 7 и Bluetooth 5.3, порты USB 4 Type-C и HDMI 2.1a. Применяется NVIDIA DGX OS — модификации Ubuntu для работы с ИИ. Устройство предназначено прежде всего для прототипирования и настройки ИИ-моделей, а также инференса. В свою очередь, рабочая станция ExpertCenter Pro ET900N G3 получила ускоритель NVIDIA GB300 Grace Blackwell Ultra с 288 Гбайт памяти HBM3E. Есть 496 Гбайт памяти LPDDR5X в виде четырёх модулей SOCAMM. Упомянут сетевой адаптер NVIDIA ConnectX-8 SuperNIC. Заявленная ИИ-производительность достигает 20 Пфлопс в режиме FP4. Компьютер функционирует под управлением NVIDIA DGX OS. На фронтальную панель корпуса выведены порты USB и 3,5-мм аудиогнёзда. Предусмотрены слоты для флеш-карт.
24.05.2025 [22:18], Сергей Карасёв
Supermicro представила сервер-микрооблако на базе AMD EPYC GradoКомпания Supermicro представила сервер MicroCloud A+ Server AS-3015MR-H5TNR типоразмера 3U. Эта пятиузловая система (3U5N) ориентирована на организацию облачных вычислений и CDN, поддержание работы потоковых видеосервисов, веб-приложений и пр. Каждый узел рассчитан на установку одного процессора AMD EPYC 4005 Grado в исполнении Socket AM5 (LGA1718) с показателем TDP до 175 Вт (воздушное охлаждение). Кроме того, могут применяться чипы EPYC 4004 и Ryzen 7000/9000, насчитывающие до 16 вычислительных ядер с поддержкой многопоточности. Доступны четыре слота для модулей DDR5-5600 суммарным объёмом до 192 Гбайт. Каждый узел располагает одним слотом PCIe 5.0 x16 FHFL и одним разъёмом PCIe 5.0 x4 Micro-LP или двумя слотами PCIe 5.0 x8 LP. Возможна установка ускорителя NVIDIA L40(S), L4, A16, A2 и A10 или AMD Instinct MI210. Предусмотрены по два посадочных места для накопителей SFF NVMe (PCIe 5.0) и SFF SATA-3. Кроме того, имеется коннектор M.2 M-key для SSD типоразмера 2280/22110 (NVMe). Доступны два порта USB 2.0. Вся система AS-3015MR-H5TNR в целом оборудована четырьмя блоками питания с резервированием мощностью 2000 Вт с сертификатом 80+ Titanium. Задействованы пять вентиляторов охлаждения диаметром 80 мм. Габариты составляют 449 × 775 × 131 мм, масса — 48,76 кг. Диапазон рабочих температур простирается от +10 до +35 °C. Упомянут встроенный модуль TPM 2.0 для обеспечения безопасности.
24.05.2025 [22:04], Руслан Авдеев
Пожар в орегонском ЦОД Digital Realty привёл к масштабному сбою X (Twitter)В минувший четверг в дата-центре Digital Realty PDX11 в технопарке Хиллсборо (Hillsboro) в Орегоне произошёл пожар, который привёл к сбоям в социальной сети X (Twitter) Илона Маска (Elon Musk), которая является одним из арендаторов ЦОД. По предварительным данным, возгорание произошло в помещении, где находились аккумуляторы резервного питания, сообщает Wired. Персонал эвакуировали. На устранение инцидента у пожарных ушло несколько часов, но, к счастью, никто не пострадал. По словам местных пожарных, пожар начался в помещении, заполненном (предположительно) литий-ионными аккумуляторами. Хотя такие аккумуляторы распространены в современных ЦОД, именно они нередко и становятся причиной возгораний. Малейшая ошибка в контрле температуры, обслуживании или установке способна привести к неконтролируемому перегреву и возгораниям. Хотя пламя не распространилось за пределы аккумуляторного зала, дым был достаточно густым, чтобы вызвать обеспокоенность. Digital Realty не стала уточнять, кто именно является арендатором её ЦОД. Представители X тоже отказались от комментариев. Впрочем, как сообщает Datacenter Dynamics, с 23 мая в течение нескольких суток в работе X наблюдаются сбои разного масштаба. В официальном аккаунте компания сообщается, что она знает о проблемах и работает над их устранением. ![]() Источник изображения: raquel raclette/unsplash.com До покупки Маском в 2022 году социальная сеть использовала в США три ЦОД: в Сакраменто, Портленде и Атланте. В случае отказа одного дата-центра трафик можно было перенаправить на другие. В конце 2022 года Маск принял неоднозначные меры по сокращению расходов и закрыл площадку в Сакраменто. В результате всего через несколько дней случился крупный сбой, доказавший, что система стала хрупкой — компания поспешила перенести нагрузки в Портленд и Атланту. В итоге дата-центр NTT GDC в Сакраменто достался Tesla. Кроме того, Маск какое-то время отказывался оплачивать услуги облаков Google и Oracle, а поставщик серверов Wiwynn подал к X иск за неоплату счетов и несоблюдение условий контракта. Пожары в дата-центрах — явление не такое уж уникальное. В сентябре 2024 года Alibaba Cloud пострадала от пожара в ЦОД в Сингапуре, от большого пожара в своём время пострадал ЦОД OVHCloud в Страсбурге. Один из крупнейших в истории индустрии инцидентов тоже оказался связан с Li-Ion аккумуляторами, безопасность которых вызывает всё больше вопросов. Основными же причинами отключений ЦОД по-прежнему являются человеческие ошибки и сбои в электроснабжении.
24.05.2025 [00:47], Владимир Мироненко
Oracle потратит $40 млрд на покупку ИИ-чипов NVIDIA для техасского ЦОД StargateOracle закупит у NVIDIA высокопроизводительные ускорители на $40 млрд для нового гигантского ЦОД OpenAI в Абилине (Техас, США), который станет первым объектом проекта Stargate, сообщила газета The Financial Times. После завершения строительства мощность ЦОД составит 1,2 ГВт, что сделает площадку одной из крупнейших в мире. По словам источников The Financial Times, Oracle приобретёт для установки в этом ЦОД около 400 тыс. ИИ-ускорителей NVIDIA GB200. Объект будет введён в эксплуатацию в середине 2026 года, после чего Oracle возьмёт его в аренду на 15 лет и предоставит вычислительные мощности в аренду OpenAI. Владельцы площадки, Crusoe Energy и американская инвестиционная компания Blue Owl Capital, привлекли $15 млрд в форме заёмных средств и акционерного капитала. Весь кампус ЦОД будет включать восемь объектов. По словам осведомлённых источников, JPMorgan предоставил большую часть долгового финансирования по двум кредитам на общую сумму $9,6 млрд, включая кредит в размере $7,1 млрд, объявленный на этой неделе. Crusoe и Blue Owl по отдельности инвестировали в проект около $5 млрд. После завершения строительства ЦОД в Абилине будет соперничать по масштабам с ЦОД xAI Colossus, который вместит до 1 млн ускорителей NVIDIA. Большей частью в ЦОД используются более ранние и менее мощные версии ускорителей NVIDIA — H100 и H200. На этой неделе Маск заявил, что следующим этапом Colossus станет «первый гигаватный суперкластер для обучения ИИ». В свою очередь, Amazon строит в Северной Вирджинии дата-центр мощностью более 1 ГВт, а Meta✴ возводит 1,5-ГВт кампус в Луизиане. ![]() Источник изображения: Crusoe Energy Возведение ЦОД в Абилине станет важным шагом в реализации планов OpenAI по снижению зависимости от Microsoft. Ранее стартап полагался исключительно на вычислительные мощности софтверного гиганта, а большая часть почти $14 млрд инвестиций Microsoft в OpenAI была предоставлена в виде кредитов на облачные вычисления. OpenAI и Microsoft расторгли соглашение об эксклюзивности услуг и прав Microsoft после того, как выяснилось, что аппетиты стартапа на вычисления намного превышают возможности Microsoft. Сейчас партнёры ведут переговоры по поводу того, как долго Microsoft будет сохранять лицензионные права на модели OpenAI. OpenAI намерена расширить проект Stargate за пределы США, планируя построить крупный ЦОД в ОАЭ. Так, крупнейший ИИ ЦОД Stargate будет не в США — OpenAI и G42 планируют построить кампус ИИ ЦОД мощностью 5 ГВт в ОАЭ. Ранее сообщалось, что OpenAI обдумывает возможность инвестиций в строительство ИИ-инфраструктуры в Великобритании и Евросоюзе. Возможно, следующий кампус Stargate при поддержке SoftBank появится в Японии. Сейчас компания ищет новые площадки и партнёров в Азиатско-Тихоокеанском регионе.
23.05.2025 [20:49], Руслан Авдеев
Data4 занялась выращиванием водорослей в ЦОДФранцузский оператор дата-центров Data4 представил новую систему утилизации тепла ЦОД — его будут использовать для выращивания водорослей Chlorella. Совместно с Фондом Университета Париж-Сакле (Fondation de l’Université Paris Saclay) компания установила экспериментальный модуль на крыше кампуса Marcoussis близ Парижа, сообщает Datacenter Dynamics. В Data4 утверждают, что технология может заложить основу для создания нового поколения «биоциклических» ЦОД, а полученным водорослям можно найти немало способов применения, в том числе в качестве биотоплива, корма для животных и пищевой добавки для людей. Проект предусматривает использование микроводорослей, способных поглощать в 20 раз больше углекислого газа, чем деревья с эквивалентной занимаемой площадью. Тепло и вода из системы охлаждения ЦОД подаются в специальный модуль производства Blue Planet объёмом 1000 л, куда впрыскивается углекислый газ. Водоросли прокачиваются сквозь прозрачные трубки, что обеспечивает фотосинтез и дальнейший рост, а после собирается «урожай». ![]() Источник изображений: Data4 В Data4 заявляют, что система обеспечивает замкнутый цикл — нет опасности повреждения охлаждающего оборудования дата-центра в случае поломки. Для выращивания водорослей компания намерена получать CO2, выделяемый в результате производственных процессов на сторонних объектах. Утверждается, что с помощью таких водорослей один ЦОД может улавливать 13 т углекислого газа ежегодно. Сколько именно водорослей удастся вырастить — зависит от климата в месте расположения ЦОД. На следующем этапе проекта предусмотрена разработка блоков ёмкостью 600 л для выращивания водорослей, которые можно будет крепить на стенах ЦОД (900 м2) для масштабирования производства, позволяющего выращивать до 20 кг водорослей и улавливать до 36 кг CO2 ежедневно. Для создания такого модуля партнёры работали с многопрофильной группой экспертов, в т.ч. стартапом Blue Planet Ecosystems и органом местного самоуправления департамента Эссонна (Conseil Départemental de l'Essonne). В Data4 заявляют, что в дата-центрах компании во Франции доступно порядка 18 ТВт∙ч энергии, но пока они не используются. Благодаря новому проекту, появилась возможность создать новый экологический и экономический ресурс для региона и, следовательно, новые рабочие места, которых будет всё больше по мере развития технологии.
23.05.2025 [15:37], Руслан Авдеев
Bain Capital запустила в регионе EMEA оператора ЦОД гиперскейл-класса HscaleИнвестиционная группа Bain Capital запустила нового оператора дата-центров гиперскейл-уровня для работы в регионе EMEA. Компанию возглавит бывший генеральный директор немецкого оператора ЦОД Mainova Webhouse Оливер Шибель (Oliver Schiebel), сообщает Datacenter Dynamics. Bain Capital уже владеет несколькими операторами ЦОД. Так, в Китае работает ChinData (готовится к продаже). Её дочерняя структура Bridge DC ориентирована на Азиатско-Тихоокеанский регион (АТР), а DC Blox специализируется на американских ЦОД. Новая инициатива завершает выход Bain на европейский рынок путём покупки в прошлом году 80-% доли в операторе AQ Compute, принадлежавшем Aquila Group. У Aquila будет доля 20 % от Hscale. Hscale пока располагает одним работающим объектом на 6 МВт — OLS1 неподалёку от Осло (Норвегия), ранее принадлежавшим AQ Compute. В настоящее время Hscale занимается строительством проектов на 100 МВт, включая дополнительные 12 МВт в OSL1 и 10 МВт в BCN1 близ Барселоны в технопарке Parc de l’Alba. К OSL1 со временем присоединятся OSL2 и OSL3 (200 МВт общей мощности); запланированная мощность BCN1 составляет 50 МВт; MAD1 недалеко от Мадрида освоит 192 МВт, а MXP1 и MXP2 к востоку от Милана получат 165 МВт. Все эти объекты планируется завершить к IV кварталу 2028 года, а общая мощность портфолио Hscale со временем должна приблизиться к 1 ГВт. Bain сообщила, что у нее есть дополнительные проекты в Лондоне, Франкфурте и Сарагосе, но подробности не разглашаются. По данным руководства Bain, в ближайшие годы проекты будут подкреплены «многомиллиардными» инвестициями. Компания намерена сотрудничать с дочерней компанией Aquila Group — Aquila Clean Energy, которая обеспечит поставки «чистой» энергии. Bain Capital — частная инвестиционная компания, ранее возглавлявшаяся кандидатом в президенты США и бывшим сенатором Миттом Ромни (Mitt Romney). Под её управлением находятся активы приблизительно на $185 млрд.
23.05.2025 [15:22], Владимир Мироненко
Специально для ИИ: Intel представила три оптимизированных процессора Intel Xeon Granite Rapids, один из которых используется в NVIDIA DGX B300Intel представила три новых процессора семейства Intel Xeon 6 Granite Rapids-SP/AP — 6962P, 6774P и 6776P, разработанные для управления «самыми передовыми ИИ-системами ускорителей». Новые процессоры с P-ядрами используют технологию Intel Priority Core Turbo (PCT), а также технологию Intel Speed Select Turbo Frequency (Intel SST-TF), которые позволяют настраивать частоты ядер процессора для повышения производительности ускорителя при обработке требовательных рабочих ИИ-нагрузок. Новые процессоры Xeon 6 уже доступны для заказчиков. В частности, Intel Xeon 6776P используется в ИИ-системе NVIDIA DGX B300, где «играет важную роль в управлении, оркестрации и поддержке ИИ-системы». «Новые чипы демонстрируют непревзойдённую производительность Xeon 6, что делает их идеальными процессорам для ИИ-систем с ускорением на GPU следующего поколения», — отметила Карин Айбшиц Сигал (Karin Eibschitz Segal), корпоративный вице-президент и временный генеральный директор Intel Data Center Group. Как сообщила Intel, внедрение PCT в сочетании с Intel SST-TF обеспечивает значительный скачок производительности ИИ-систем. PCT позволяет динамически формировать пул высокоприоритетных ядер, которые работают на более высоких турбочастотах, в то время как остальные ядра работают на базовой частоте, обеспечивая оптимальное распределение ресурсов процессора. Эта функция имеет решающее значение для рабочих ИИ-нагрузок, требующих последовательной и пакетной обработки, более быстрой отправки данных к ускорителям и повышения общей эффективности системы. Впрочем, в случае 6776P лишь до восьми ядер могут работать на повышенной турбочастоте. Процессоры Xeon 6 с P-ядрами, по словам Intel обеспечивают ведущие в отрасли характеристики для ИИ-систем, включая:
Новые процессоры отличаются высокой надёжности и удобством обслуживания, что сводит к минимуму перебои в работе. Как сообщается, новинки поддерживают AMX-вычисления с точностью FP16, что обеспечивает эффективную предобработку данных и выполнение критических задач ЦП в рабочих ИИ-нагрузках.
23.05.2025 [13:46], Руслан Авдеев
ИИ-парковка: Tonomia интегрировала серверы в парковочные навесы с солнечными батареями и аккумуляторамиКомпания Tonomia предлагает размещение ИИ-ускорителей на… автопарковках — оборудование будет снабжаться энергией благодаря навесным солнечным элементам. Основанный в 2023 году бельгийский стартап сотрудничает с британским поставщиком оборудования Panchaea над созданием и продвижением комплекса eCloud, сообщает Datacenter Dynamics. Солнечные панели, используемые в качестве своеобразных «навесов» на парковках, нередко используются для подпитки АКБ электромобилей. Tonomia предложила использовать получаемую таким образом энергию и для питания ИИ-ускорителей своей облачной платформы. В компании полагают, что повсеместная установка таких «солнечных навесов» навесов в Европе и США позволит увеличить выработку энергии и снизить нагрузки на электросети, а интеграция вычислительного оборудования позволит получить дополнительный доход. Компания предложила объединить ИИ-серверы и действующие солнечные модули системы eParking с литий-ионными или натрий-ионными аккумуляторами. В Tonomia утверждают, что навесы способны генерировать до 600 Вт в Европе или 750 Вт в США (из-за большей площади парковок). Как утверждают в Panchaea, только в Европе есть более 350 млн наземных парковочных мест, причём большинство из них пустуют 80 % времени. Tonomia готова превратит автопарковки в «активы двойного назначения». ![]() Источник изображения: Tonomia Tonomia готова предложить ИИ-серверы Supermicro, MITAC или Panchaea. Конфигурации кластеров подбираются под особенности индивидуальных бизнес-моделей. Предполагается, что каждое парковочное место потенциально позволяет генерировать до 20 кВт∙ч ежедневно, т.е. около £8 ($10,74) в денежном эквиваленте, если исходить из стоимости инференса £0,40 ($0,53) за кВт·ч. Дополнительный доход может принести и зарядка электромобилей, передача энергии в электросеть и отдача избыточного тепла на обогрев близлежащих зданий. ![]() Источник изображения: Tonomia Tonomia разработала eCloud на основе оригинального продукта eParking после того, как к ней обратились игроки ИИ-сектора, заинтересованные в локальной генерации энергии. По словам компании, городам необходима подобная многофункциональная инфраструктура, а предприятиям нужны мощности для периферийных вычислений в непосредственной близости от потребителей. Кроме того, такая экоустойчивая система должна понравиться и регуляторам. Солнечная энергия активно используется в разных странах. Впрочем, как показывает европейский опыт, слишком много «зелёной» энергии — не всегда хорошо: Нидерланды уже столкнулись с определёнными проблемами. |
|