Лента новостей

08.05.2024 [17:31], Руслан Авдеев

Рурский университет предложил сохранять тепло ЦОД в заброшенной шахте, чтобы зимой использовать его для отопления домов

Тепло расположенного в Бохуме (Германия) ЦОД планируется хранить в заброшенной шахте и в дальнейшем использовать в районной системе отопления. По данным Datacenter Dynamics, проект местного Рурского университета призван продемонстрировать потенциал теплоаккумулятора Mine Thermal Energy Storage (MTES). Проект финансируется в рамках поддерживаемой Евросоюзом схемы PUSH-IT, рассматривающей подземные объекты в качестве экоустойчивых хранилищ энергии.

Университет управляет собственной теплоэлектростанцией с 2019 года. Станция имеет два комбинированных тепловых/электрических модуля общей мощностью 9 МВт и три газовых котла с общей теплоотдачей 105 МВт. ТЭС не только обогревает университетский кампус, но обеспечивает энергией 5 тыс. квартир, 760 частных домов и 115 промышленных зданий. Оператором выступает Unique Wärme — совместное предприятие университета и коммунальной компании Stadtwerke Bochum, частично принадлежащей местным властям.

 Источник изображения: Robert Thiemann/unsplash.com

Источник изображения: Robert Thiemann/unsplash.com

При этом энергомодули расположены непосредственно над шахтой Мансфельд (Mansfeld) глубиной до 120 м, которая была закрыта в 1963 году. MTES позволит летом отправлять избыточное тепло дата-центра и других технических объектов университета в подземные глубины с помощью тепловых насосов. Там оно будет храниться в скважинах, откуда его по мере необходимости можно возвращать в систему отопления, когда спрос особенно высок, т.е. зимой.

MTES, как ожидается, может увеличить использование источников возобновляемой энергии и сгладить пиковые нагрузки в системе отопления в зимние месяцы. Это, в частности, приведёт к снижению углеродных выбросов и стоимости эксплуатации. По данным координаторов PUSH-IT, MTES пока находится на стадии разработки, а создание экспериментальных скважин предусмотрено осенью.

Похожий проект разрабатывается в стенах Эдинбургского университета, где «мусорное» тепло суперкомпьютерного ЦОД также предлагается сохранять в старой шахте до того, как использовать его для отопления местных домов. Такая схема позволит обогревать не менее 5 тыс. домов, если расчёты учёных подтвердятся. Впрочем, воду из подземных выработок можно использовать и просто для охлаждения дата-центров.

Постоянный URL: https://servernews.kz/1104496
08.05.2024 [13:24], Сергей Карасёв

ИИ-суперкомпьютер в чемодане — GigaIO представила платформу Gryf

Компания GigaIO совместно с SourceCode анонсировала вычислительную систему Gryf. Это, как утверждается, первый в мире суперкомпьютер для ИИ-нагрузок, выполненный в виде чемодана на колёсиках. Изделие имеет габариты 228,6 × 355,6 × 622,3 мм и весит около 25 кг. Применяется фирменная система интерконнекта FabreX на базе PCI Express.

Конфигурация Gryf предусматривает использование модулей (Sled) четырёх типов: это вычислительный узел (Compute Sled), блок ускорителя (Accelerator Sled), узел хранения (Storage Sled) и сетевой блок (Network Sled). Они могут компоноваться в различных сочетаниях, но общее количество модулей в рамках одного экземпляра Gryf не превышает шести.

В состав Compute Sled входят процессор AMD EPYC 7313 Milan (16C/32T; 3,0–3,7 ГГц; 155 Вт), 256 Гбайт DDR4-3200, системный накопитель NVMe M.2 SSD вместимостью 256 Гбайт и два 100GbE-порта QSFP56/QSFP28. Может применяться ОС Linux Rocky 8/9 или Ubuntu 20/24. В свою очередь, Accelerator Sled содержит ускоритель NVIDIA L40S (48 Гбайт). Модуль Storage Sled объединяет восемь накопителей NVMe E1.L SSD суммарной вместимостью 246 Гбайт.

 Источник изображения: GigaIO

Источник изображения: GigaIO

Наконец, Network Sled предоставляет два разъёма QSFP56 100GbE и шесть 25GbE-портов SFP28. Вся система получает питание от двух блоков мощностью 2500 Вт каждый. Применены шесть вентиляторов охлаждения диаметром 60 мм. Диапазон рабочих температур — от 10 до +32 °C.

Одно устройство Gryf обеспечивает производительность до 91,6 Тфлопс FP32, до 733 Тфлопс FP16 и до 1466 Тфлопс FP8. При этом в единый комплекс могут быть связаны до пяти экземпляров Gryf, что позволяет масштабировать быстродействие для выполнения тех или иных задач.

Постоянный URL: https://servernews.kz/1104462
08.05.2024 [13:24], Сергей Карасёв

Pure Storage продемонстрировала SSD-модули вместимостью 150 Тбайт

Компания Pure Storage, специализирующаяся на All-Flash СХД, по сообщению ресурса Tom's Hardware, готовит к выпуску проприетарные накопители DFM (Direct Flash Module) следующего поколения. В частности, продемонстрирован образец изделия вместимостью 150 Тбайт.

DFM — это специализированные SSD, совместимые только с системами Pure Storage. Они могут применяться, в частности, в составе массивов Pure Storage FlashArray и FlashBlade. Глубокая интеграция с собственными СХД, как утверждается, способствует снижению числа проблем, связанных с независимыми поставщиками SSD, а также позволяет повысить энергоэффективность. Кроме того, в DFM отсутствует зависимость от DRAM на уровне накопителей. Аналогичного подхода придерживается и IBM в своих накопителях FlashCore Modules (FCM).

 Источник изображения: Pure Storage

Источник изображения: Pure Storage

В июне прошлого года Pure Storage анонсировала изделия DFM вместимостью 75 Тбайт. Как теперь сообщается, компания начала поставки этих устройств. Вместе с тем к выпуску готовятся решения вдвое большей ёмкости, но сроки их появления в продаже пока не уточняются. В дальнейшие планы Pure Storage входит разработка модулей DFM на 300 Тбайт: такие накопители должны выйти на рынок «не позднее 2026 года».

Генеральный менеджер Pure Storage Билл Серрета (Bill Cerreta) отмечает, что решения DFM пользуются значительным спросом у заказчиков. С 2017 года было реализовано приблизительно 800 тыс. таких устройств. Утверждается, что по сравнению с традиционными SSD эти изделия обеспечивают двукратное снижение частоты отказов. Кроме того, клиенты выигрывают от «заметного снижения энергопотребления и износа, более высокой производительности на уровне массива и лучшего контроля задержки».

Постоянный URL: https://servernews.kz/1104463
08.05.2024 [12:50], Сергей Карасёв

IBM представила небольшой сервер POWER S1012 для ИИ-вычислений на периферии

Корпорация IBM анонсировала компактный сервер POWER S1012 на платформе POWER10, предназначенный для решения ИИ-задач на периферии. Новинка будет предлагаться в двух вариантах исполнения — в корпусе башенного типа и в виде системы формата 2U половинной ширины, что позволит размещать в стандартной стойке два устройства бок о бок.

Решение оснащается модулем POWER10 eSCM с одним, четырьмя или восемью ядрами (3,0–3,9 ГГц) и 256 Гбайт памяти. Каждое ядро способно выполнять до восьми потоков инструкций одновременно (SMT8), благодаря чему максимальная конфигурация обеспечивает до 64 потоков. Заявленная пропускная способность памяти — до 102 Гбайт/с.

 Источник изображений: IBM

Источник изображений: IBM

Конфигурация POWER S1012 может включать два слота PCIe 5.0 x8 или один слот PCIe 4.0 x16, а также дополнительный разъём PCIe 5.0 x8. Допускается установка четырёх накопителей NVMe U.2.

По заявлениям IBM, в плане производительности новинка втрое превосходит сервер POWER S814, поддержка которого закончится буквально на днях. Модификация в формате 2U половинной ширины позволяет сократить пространство для оборудования до 75 % по сравнению со стоечным сервером POWER S1014 (4U). Применение POWER S1012 на периферии даёт возможность выполнять определённые ИИ-задачи непосредственно в точке получения данных, что снижает задержки и уменьшает нагрузку на сетевые каналы.

Сервер POWER S1012 станет доступен у IBM и сертифицированных бизнес-партнёров 14 июня 2024 года. Клиенты смогут выбрать оптимальный для себя период поддержки в диапазоне от трёх до пяти лет. Кроме того, в зависимости от потребностей будут доступны дополнительные варианты обслуживания.

Постоянный URL: https://servernews.kz/1104461
07.05.2024 [22:12], Руслан Авдеев

AWS вложит $9 млрд в расширение облачной инфраструктуры в Сингапуре

Amazon планирует потратить $9 млрд на развитие облачной инфраструктуры в Сингапуре. По данным гонконгской SCMP, это последнее, но далеко не единственное вложение компании в Юго-Восточной Азии. Средства будут потрачены в следующие четыре года. Фактически речь идёт об удвоении инвестиций AWS в стране. Это поможет удовлетворить спрос на облачные сервисы, а также, как заявляют в компании, ускорить внедрение ИИ.

AWS расширяет присутствие за пределами США, значительная часть инвестиций приходится на Азию. С учётом инвестиций в Сингапуре всего в этом году AWS пообещала инвестировать за пределами США $35 млрд, включая рынки Японии, Саудовской Аравии и Мексики. Дополнительно компания строит ЦОД в Малайзии, Таиланде и Южной Корее. Годовая выручка AWS впервые должна превысить $100 млрд — компания намерена заработать на проектах IT-модернизации корпоративных клиентов и ИИ-сервисах.

 Источник изображения: R.H. Lee/unsplash.com

Источник изображения: R.H. Lee/unsplash.com

Азиатские рынки активно осваивают другие компании, от Microsoft до Apple. Делается это в попытке диверсифицировать источники доходов, львиная доля которых в регионе приходится на Китай, с которым у США в последние годы наметились значительные политико-экономические разногласия. Microsoft, ключевой конкурент AWS, организовала настоящий тур, в рамках которого глава компании Сатья Наделла (Satya Nadella) анонсировал в облачную и ИИ-инфраструктуру в Индонезии, Малайзии и Таиланде.

В своё время AWS именно в Сингапуре построила свой первый облачный регион в Азии. В Amazon считают, что запланированные инвестиции обеспечат поддержку рабочих мест, эквивалентных 12,3 тыс. вакансий с полной занятостью ежегодно. Дополнительно компания будет в течение двух лет проводить семинары для клиентов, а совместно с властями Сингапура будет способствовать внедрению генеративного ИИ малым бизнесом.

Сингапур довольно давно стал своего рода хабом для американских гиперскейлеров. Сейчас он рассматривается как «ворота» в Юго-Восточную Азию в целом, где ожидается быстрый рост облачного бизнеса. При этом власти страны всё более ужесточают регулирование индустрии ЦОД, а местные игроки в содружестве с американскими компаниями готовы сами осваивать рынки соседних стран. И теперь уже у Малайзии есть шансы стать новым IT-хабом в регионе.

Постоянный URL: https://servernews.kz/1104423
07.05.2024 [21:26], Руслан Авдеев

Apple работает над собственными серверными ИИ-ускорителями

Компания Apple занимается разработкой собственных ИИ-полупроводников для дата-центров, передаёт The Wall Street Journal. В перспективе это поможет ей в «гонке вооружений», развернувшейся на рынке ИИ-решений. И у Apple есть ресурсы для создания передовых ИИ-чипов.

В последние десять лет компания уже выбилась в лидеры полупроводниковой индустрии, представляя всё новые чипсеты для мобильных устройств и компьютеров Mac-серии. Как свидетельствуют источники СМИ, серверный проект Project ACDC (Apple Chips in Data Center) задействует компетенции компании в деле создания решений для ЦОД. Недавно сообщалось, что Apple наняла создателя ИИ-кластеров Google. Реализацию проекта Apple начала несколько лет назад, но данных о том, когда будут готовые первые чипы, пока нет.

По имеющимся данным, компания уже тесно сотрудничает с TSMC. Предполагается, что чипы для серверов Apple будут оптимизированы для запуска ИИ-моделей, а не их обучения — на этом рынке по-прежнему будет доминировать NVIDIA. Время поджимает, поскольку Google и Microsoft уже имеют собственные ИИ-ускорители, хотя и разных классов — TPU и Maia 100. Обе компании имеют компетенции в области LLM, а Microsoft весьма дружна с OpenAI, которая тоже не прочь заняться «железом».

 Источник изображения: GR Stocks/unsplash.com

Источник изображения: GR Stocks/unsplash.com

Такое положение дел не устраивает инвесторов Apple, поскольку компания не продемонстрировала никаких впечатляющих успехов в соответствующей сфере, в то время как цена акций конкурентов продолжает расти на фоне новостей об их достижениях. В Apple пытаются убедить инвесторов, что это лишь временное явление и скоро грядут анонсы, связанные с ИИ. Опыт Apple в сфере разработки современных полупроводников должен помочь в создании ИИ-чипов. Сегодня компания представила 3-нм процессор M4 с самым мощным, по её словам, NPU в мире.

Хотя компания добилась определённых успехов в разработке чипов для потребительской и профессиональной электроники, определённые задачи даются ей с трудом. Например, она всё ещё бьётся над созданием собственного беспроводного модуля. Хотя в Apple предпочли бы, чтобы большинство ИИ-вычислений осуществлялись силами самих чипов, некоторые задачи будут по-прежнему выполняться в облаке, где и пригодятся новые полупроводники. Это позволит компании лучше контролировать свою стратегию развития в сфере ИИ.

Постоянный URL: https://servernews.kz/1104418
07.05.2024 [17:30], Руслан Авдеев

Subsea Cloud предложила протестировать её подводный дата-центр у берегов Норвегии

Оператор глубоководных дата-центров Subsea Cloud предложил потенциальным клиентам оценить возможности своего ЦОД в течение 90 дней. Как сообщает The Register, так компания пытается привлечь новых пользователей — если в последние три года дорогостоящие испытания проводились индивидуально, то теперь доступ к необычным дата-центрам упростится.

В Subsea заявляют, её дата-центры имеют на 40 % меньше углеродных выбросов, а операционные расходы для клиентов на 30 % меньше в сравнении с наземными ЦОД. Наконец, затрат энергии и воды на охлаждение вовсе нет. Изюминка Subsea Cloud в том, что компания предлагает не просто подводные, а именно глубоководные (до 3000 м) решения. В 2022 году компания сообщала о внедрении первого коммерческого подводного проекта в районе Порт-Анджелеса (штат Вашингтон), дополнительные ЦОД планировалось развернуть в Мексиканском заливе и Северном море.

 Источник изображения: Subsea Cloud

Источник изображения: Subsea Cloud

В рамках Project OTTO компания предложит протетсировать возможности своего ЦОД недалеко от юго-западного побережья Норвегии. Первая фаза стартует в октябре. Участникам будут доступны тестовые периоди длительностью 30, 60 и 90 дней. При этом поучаствовать в тестировании можно только один раз — за исключением случаев, когда потенциальные клиенты захотят значительно изменить аппаратную составляющую своего оборудования, что потребует дальнейших тестов. О стоимости тестирования ничего не говорится, но компания предупреждает, что в случае отказать подписать соглашение о дальнейшем развёртывании мощностей продление тестирования не будет доступно.

Базовый модуль Subsea Cloud представляет собой ёмкость размерами 6,1 × 2,6 м, практически тех же габаритов, что и стандартный 20-футовый контейнер — в нём можно разместить до 16 стоек мощностью до 150 кВт каждая (суммарно до 1,5 МВт) или 826 серверов. Для охлаждения используется погружная СЖО. Компания может предоставить клиентам и собственные серверы. В целом конфигурация ЦОД рассчитана на высокоплотное размещение энергоёмких систем, например, для ИИ- и HPC-нагрузок. Срок службы модуля составляет 25–30 лет.

 Источник изображения: Subsea Cloud

Источник изображения: Subsea Cloud

Подводные ЦОД пытаются внедрять не впервые. Microsoft в течение нескольких лет развивала Project Natick. Этот проект был признан успешным, но коммерциализировать компания его не стала в отличие от аналогичного проекта Highlander в Китае. Одним из сдерживающих клиентов факторов является отсутствие лёгкого доступа к оборудованию в подводных дата-центрах. По словам Subsea Cloud на то, чтобы добраться до модуля и заменить или обслужить серверы, уйдёт 4–16 часов.

В Subsea Cloud рассчитывают на сотрудничество с офшорными ветряными электростанциями — это обеспечит подводным ЦОД удобный доступ к возобновляемой энергии. Кроме того, компания намерена подключать свои подводные кампусы непосредственно к подводным ВОЛС. При этом в компании подчёркивают, что общая стоимость обслуживания значительно ниже, чем у обычных ЦОД. Правда, сама же говорит, что экономически целесообразно развёртывание не менее 20 модулей.

Постоянный URL: https://servernews.kz/1104364
07.05.2024 [16:25], Руслан Авдеев

Новые ИИ ЦОД в США требуют гигаватты энергии, что может привести к её дефициту

Dominion Energy в прошлом году подключила к энергосети в Вирджинии — крупнейшем в мире рынке ЦОД — 15 дата-центров общей ёмкостью 933 МВт. По данным Datacenter Dynamics, в 2024 году электроснабжение получат ещё столько же ЦОД, суммарная ёмкость которых пока не подсчитана. А всего с 2019 года Dominion Energy подключила в Северной Вирджинии 94 дата-центра общей ёмкостью 4 ГВт. Для сравнения — ёмкость ЦОД Microsoft по всему миру только недавно превысила 5 ГВт.

В докладе Dominion Energy за 2023 год сообщается, что на дата-центры приходится 24 % продаж электричества дочерней Virginia Power, тогда как в 2022 году их доля была 21 %. При этом подчёркивается, что спрос отдельных ЦОД вырос с приблизительно с 30 МВт до 60–90 МВт, а запросы кампусов выросли с 300 МВт до «нескольких гигаватт». При этом на максимальное потребление они теперь выходят не за 4–5 лет, а всего за 2–3 года, причём в дальнейшем нагрузка только увеличится.

 Источник изображения: American Public Power Association/unsplash.com

Источник изображения: American Public Power Association/unsplash.com

American Electric Power (AEP) получила запросы на поставку до 15 ГВт, львиная доля которых приходится на ЦОД. Драйверами спроса служат гиперскейлеры вроде AWS и Google. Компания имеет мощности около 38 ГВт и готова инвестировать более $27 млрд в линии электропередач и системы распределения энергии в следующие пять лет. Она ожидает увеличение капитальных издержек в будущем, связанных с ростом потребления энергии ЦОД.

Public Service Enterprise Group (PSEG) ведёт переговоры о строительстве ЦОД ёмкостью 50–100 МВт рядом со своими АЭС. Наконец, отвечающая за электропередачу компания PJM заявила, что располагает достаточными ресурсами для того, чтобы удовлетворить спрос летом 2024 года. Однако она предупреждает о проблемах в будущем из-за того, что для замены 1 МВт энергии от обычных электростанций на ископаемом топливе, которые активно выводятся из эксплуатации, фактически требуется несколько МВт из возобновляемых источников из-за нестабильности последних.

Проблема энергоснабжения ЦОД в США вообще и Северной Вирджинии в частности носит системный характер. В апреле сообщалось, что «зелёные» энергопроекты не смогут «прокормить» ИИ на крупнейшем в мире рынке ЦОД, причём тревогу поставщики бьют уже не первый год. Если ситуацию не удастся оперативно исправить, то дефицит энергии может привести к сокращению ИИ-нагрузок или даже к постройке ТЭС непосредственно на территории кампусов, как это уже происходит в Европе.

Постоянный URL: https://servernews.kz/1104359
07.05.2024 [15:01], Сергей Карасёв

Mini-ITX плата Radxa Rock 5 ITX с чипом Rockchip позволит создать NAS с двумя 2.5GbE-портами

Компания Radxa анонсировала довольно необычную материнскую плату под названием Rock 5 ITX. Это изделие в формате Mini-ITX оснащено процессором Arm, а одной из основных сфер применения названо создание сетевых хранилищ (NAS). В качестве программной платформы применяется Roobi OS.

Плата укомплектована процессором Rockchip RK3588, который часто используется в одноплатных компьютерах для индустриального применения и сферы IoT. Чип содержит четыре ядра Cortex-A76 (2,4 ГГц) и четыре ядра Cortex-A55 (1,8 ГГц), графический блок Arm Mali-G610 MC4 и нейропроцессорный модуль (NPU) с производительностью до 6 TOPS. Поддерживаются вычисления INT4/INT8/INT16/FP16/BF16/TF32.

Новинка может нести на борту 4, 8, 16 или 32 Гбайт памяти LPDDR5. В оснащение входит флеш-накопитель eMMC вместимостью 8 Гбайт для Roobi OS. Дополнительно можно установить карту microSD и SSD формата M.2 (NVMe; PCIe 3.0 х2). Для подключения накопителей в рамках NAS доступны четыре порта SATA-3 на базе контроллера ASMedia ASM1164.

 Источник изображения: Radxa

Источник изображения: Radxa

Плата располагает двумя сетевыми портами 2.5GbE с поддержкой PoE и коннектором M.2 E Key, которому можно подключить адаптер Wi-Fi 6. Есть два выхода HDMI (до 8Kp60), вход HDMI (до 4Kp60), два порта USB 2.0 Type-A, четыре разъёма USB 3.0 Type-A, порт USB 3.0 Type-C, набор аудиогнёзд и разъём для подачи питания (12 В). Среди прочего упомянута поддержка интерфейсов DP (через USB Type-C), MIPI DSI, eDP, MIPI CSI.

Модель Radxa Rock 5 ITX имеет размеры 170 × 170 мм. Диапазон рабочих температур — от 0 до +50 °C. Может быть подключён вентилятор охлаждения с регулировкой скорости вращения посредством PWM. Стоимость модификаций с 8, 16 или 32 Гбайт ОЗУ составляет $120, $160 и $240, тогда как цена модели с 4 Гбайт памяти не раскрывается.

Постоянный URL: https://servernews.kz/1104402
07.05.2024 [14:05], Сергей Карасёв

Самый производительный японский суперкомпьютер Fugaku будет работать в тандеме с квантовой системой IBM

Корпорация IBM сообщила о том, что её квантовая платформа Quantum System Two будет интегрирована с суперкомпьютером Fugaku в рамках совместного проекта с японским Институтом физико-химических исследований (RIKEN). Кроме того, IBM будет работать над новым ПО для выполнения квантово-классических задач.

Напомним, вычислительный комплекс Fugaku на базе Arm-процессоров Fujitsu A64FX в 2020 году стал самым высокопроизводительным суперкомпьютером в мире. В текущем рейтинге ТОР500 эта НРС-система занимает четвёртое место с быстродействием приблизительно 442 Пфлопс.

В свою очередь, квантовый компьютер IBM Quantum System Two был представлен в конце 2023 года. В нём применяется 133-кубитный квантовый процессор Heron. Отмечается, что Quantum System Two будет единственной квантовой системой, размещённой рядом с Fugaku в Центре вычислительных наук RIKEN в Кобе (Япония). Такая связка поможет в разработке приложений нового поколения для квантово-ориентированных суперкомпьютеров.

 Источник изображения: IBM

Источник изображения: IBM

Совместная инициатива IBM и RIKEN стала частью проекта, поддерживаемого японской Организацией по развитию новых энергетических и промышленных технологий (NEDO). Целью программы является демонстрация преимуществ гибридных вычислительных платформ при выполнении сложных и ресурсоёмких задач в эпоху «после 5G».

«С точки зрения HPC, квантовые компьютеры — это системы, которые позволяют ускорить научные приложения, обычно выполняемые на суперкомпьютерах. Кроме того, квантовые платформы дают возможность решать задачи, которые не по силам традиционным вычислительным комплексам», — отмечает доктор Мицухиса Сато (Mitsuhisa Sato), руководитель подразделения RIKEN Quantum HPC Collaborative Platform. При этом Fujitsu совместно с RIKEN уже развернули в Осакском университете (Osaka University) собственный 64-кубитный квантовый компьютер с облачным доступом.

Постоянный URL: https://servernews.kz/1104392
Система Orphus