Материалы по тегу: схд
19.11.2024 [23:28], Алексей Степин
HPE обновила HPC-портфолио: узлы Cray EX, СХД E2000, ИИ-серверы ProLiant XD и 400G-интерконнект Slingshot
400gbe
amd
epyc
gb200
h200
habana
hardware
hpc
hpe
intel
mi300
nvidia
sc24
turin
ии
интерконнект
суперкомпьютер
схд
Компания HPE анонсировала обновление модельного ряда HPC-систем HPE Cray Supercomputing EX, а также представила новые модели серверов из серии Proliant. По словам компании, новые HPC-решения предназначены в первую очередь для научно-исследовательских институтов, работающих над решением ресурсоёмких задач. Обновление касается всех компонентов HPE Cray Supercomputing EX. Открывают список новые процессорные модули HPE Cray Supercomputing EX4252 Gen 2 Compute Blade. В их основе лежит пятое поколение серверных процессоров AMD EPYС Turin, которое на сегодняшний день является самым высокоплотным x86-решениями. Новые модули позволят разместить до 98304 ядер в одном шкафу. Отчасти это также заслуга фирменной системы прямого жидкостного охлаждения. Она охватывает все части суперкомпьютера, включая СХД и сетевые коммутаторы. Начало поставок узлов намечено на весну 2025 года. Процессорные «лезвия» дополнены новыми GPU-модулями HPE Cray Supercomputing EX154n Accelerator Blade, позволяющими разместить в одном шкафу до 224 ускорителей NVIDIA Blackwell. Речь идёт о новейших сборках NVIDIA GB200 NVL4 Superchip. Этот компонент появится на рынке позднее — HPE говорит о конце 2025 года. Обновление коснулось и управляющего ПО HPE Cray Supercomputing User Services Software, получившего новые возможности для пользовательской оптимизации вычислений, в том числе путём управления энергопотреблением. Апдейт получит и фирменный интерконнект HPE Slingshot, который «дорастёт» до 400 Гбит/с, т.е. станет вдвое быстрее нынешнего поколения Slingshot. Пропускная способность коммутаторов составит 51,2 Тбит/c. В новом поколении будут реализованы функции автоматического устранения сетевых заторов и адаптивноой маршрутизации с минимальной латентностью. Дебютирует HPE Slingshot interconnect 400 осенью 2024 года. Ещё одна новинка — СХД HPE Cray Supercomputing Storage Systems E2000, специально разработанная для применения в суперкомпьютерах HPE Cray. В сравнении с предыдущим поколением, новая система должна обеспечить более чем двукратный прирост производительности: с 85 и 65 Гбайт/с до 190 и 140 Гбайт/с при чтении и записи соответственно. В основе новой СХД будет использована ФС Lustre. Появится Supercomputing Storage Systems E2000 уже в начале 2025 года. Что касается новинок из серии Proliant, то они, в отличие от вышеупомянутых решений HPE Cray, нацелены на рынок обычных ИИ-систем. 5U-сервер HPE ProLiant Compute XD680 с воздушным охлаждением представляет собой решение с оптимальным соотношением производительности к цене, рассчитанное как на обучение ИИ-моделей и их тюнинг, так и на инференс. Он оснащён восемью ускорителями Intel Gaudi3 и двумя процессорами Intel Xeon Emerald Rapids. Новинка поступит на рынок в декабре текущего года. Более производительный HPE ProLiant Compute XD685 всё так же выполнен в корпусе высотой 5U, но рассчитан на жидкостное охлаждение. Он будет оснащаться восемью ускорителями NVIDIA H200 в формате SXM, либо более новыми решениями Blackwell, но последняя конфигурация будет доступна не ранее 2025 года, когда ускорители поступят на рынок. Уже доступен ранее анонсированный вариант с восемью ускорителями AMD Instinict MI325X и процессорами AMD EPYC Turin.
12.11.2024 [12:34], Сергей Карасёв
ITPOD представила All-Flash СХД с поддержкой NVMe/TCPРоссийский поставщик решений корпоративного класса ITPOD анонсировал собственное семейство СХД с поддержкой протокола NVMe/TCP. Импортозамещающие устройства, как утверждается, подходят как для небольших, так и для крупных компаний. В серию вошли три модели типа All-Flash — ITPOD FF-100, ITPOD FF-300 и ITPOD FF-500 с поддержкой соответственно 24, 48 и 72 NVMe-накопителей. Максимальная сырая ёмкость достигает 367 Тбайт, 734 Тбайт и 1,1 Пбайт, эффективная — 1,5 Пбайт, 3 Пбайт и 4 Пбайт соответственно. Все новинки используют два контроллера в режиме Active–Active. Допускается установка TLC SSD вместимостью 3,2, 6,4 и 12,8 Тбайт, а также накопителей QLC SSD на 15,3 Тбайт. Поддерживаются протоколы iSCSI, NVMe/TCP и NFS. Возможно подключение двух NVMe-полок без дополнительных коммутаторов. Есть два порта 1GbE и выделенный сетевой порт управления 1GbE. Кроме того, предусмотрены четыре слота расширения для установки адаптеров 10GbE SFP+ (4 порта), 25GbE SFP28 (два порта) или 40/100GbE QSFP28 (два порта). Диапазон рабочих температур — от +10 до +35 °C. Аппаратная платформа, судя по всему, заказана у Gooxi. Версия начального уровня ITPOD FF-100 несёт на борту 512 Гбайт памяти и обеспечивает производительность до 400 тыс. IOPS. Вариант среднего уровня ITPOD FF-300 оснащён 1024 Гбайт памяти, а значение IOPS достигает 600 тыс. Наиболее производительная модель ITPOD FF-500 комплектуется 1536 Гбайт памяти и имеет показатель IOPS до 1 млн. Все устройства наделены 64 Гбайт памяти NVRAM. СХД устойчивы к отказам до трёх накопителей, поддерживают транзакционную целостность и автоматическое восстановление данных. Все ключевые компоненты имеют резервирование, обеспечивая непрерывную эксплуатацию. В семейство СХД ITPOD также войдут гибридные модели на основе SSD и HDD, но их характеристики пока не раскрываются. Системы подойдут для компаний, работающих с большими массивами данных, аналитикой, облачными технологиями и другими информационными системами.
12.11.2024 [10:55], Сергей Карасёв
AIC выпустила JBOD-массив J4108-02-04X формата 4U с поддержкой 108 накопителейКомпания AIC представила JBOD-массив J4108-02-04X, предназначенный для формирования систем хранения данных большой ёмкости. Решение, рассчитанное на установку в стойку, выполнено в форм-факторе 4U с габаритами 434 × 1050 × 176 мм. Новинка допускает использование 108 накопителей LFF или SFF, для монтажа/демонтажа которых не требуются инструменты. Поддерживается горячая замена, что обеспечивает простоту обслуживания и сокращает время простоя. Задействованы карты расширения Expander с поддержкой SAS4 × 48 (Hub), а также SAS35 × 40, SAS35 × 36/SAS4 × 40, SAS4 × 32 (Edge). Реализованы четыре хост-интерфейса Mini SAS HD (SFF-8674; обратно совместим с SFF-8644 SAS12G) в расчёте на модуль расширения. Интерфейсы накопителей — 24 Гбит/с и 12 Гбит/с SAS при использовании двух модулей расширения или 24 Гбит/с и 12 Гбит/с SAS + 6 Гбит/с SAS/SATA при использовании одного модуля расширения. Модель J4108-02-04X комплектуется двумя блоками питания с сертификатом 80 Plus Platinum или 80 Plus Titanium мощностью 2000 Вт каждый с возможностью горячей замены. За охлаждение отвечают восемь вентиляторов размером 60 × 56 мм (плюс по одному вентилятору 40 × 56 мм на модуль расширения). Диапазон рабочих температур — от 0 до +35 °C. Помимо модели на 108 накопителей, компания AIC анонсировала JBOD-массив J4078-02-04X типоразмера 4U с возможностью установки 78 устройств LFF/SFF, а также модель J2024-07-04X стандарта 2U, которая рассчитана на 24 накопителя SFF.
09.11.2024 [22:23], Сергей Карасёв
Huawei скрестила SSD с лентой в MED-накопителе: из-за санкций компания больше не может полагаться на поставки HDDHuawei, по сообщению Blocks&Files, разрабатывает технологию хранения больших объёмов данных на основе так называемых магнитоэлектрических дисков (MED). Фактически речь идёт о совмещении SSD и ленточных накопителей в одном корпусе, что позволит объединить преимущества «горячего» и «холодного» хранения. Необходимость создания СХД нового типа обусловлена жёсткими санкциями со стороны США — Huawei опасается возможных перебоев с закупками традиционных HDD. Концепция MED заключается в объединении в одном герметичном корпусе носителей разных типов. Это твердотельный накопитель на основе флеш-памяти NAND и ленточная система, включающая привод, катушки с лентой и головки чтения-записи. Таким образом, для работы с «горячими» данными может использоваться SSD, обеспечивающий низкие задержки и высокие скорости чтения/записи, а с «холодными» — ленточный модуль. Длина ленты приблизительно вдвое меньше, чем в LTO-картриджах, т.е. около 480 м вместо 960 м. Конструктивно MED напоминает кассету для магнитофона и содержит две катушки для ленты, электромотор и головки. MED имеет блочный интерфейс и два слоя трансляции. При записи информация попадает сначала на SSD, а после переупорядочивания последовательно записывается на ленту. При чтении накопитель, опираясь на метаданные во флеш-памяти, считывает данные либо с SSD («тёплые»), либо с ленты («холодные»). В последнем случае задержка доступа может составлять до двух минут. В составе платформы MED не используются технологии ленточных накопителей IBM, Fujifilm или Sony. Вместо этого Huawei разработала необходимые компоненты совместно с китайскими партнёрами, а чипы NAND и так производятся в КНР. Это обеспечивает независимость от зарубежных изделий, которые могут подпасть под санкции. Шасси MED не нуждается в роботизированных манипуляторах и обеспечивает высокую плотность размещения накопителей. MED первого поколения вмещает 72 Тбайт информации, потребляя при этом всего 10 % электроэнергии, необходимой обычному жёсткому диску. Совокупная стоимость владения (TCO) примерно на 20 % ниже по сравнению с другими ленточными системами эквивалентной ёмкости. Стойка MED первого поколения обеспечивает скорость передачи данных на уровне 8 Гбит/с, вмещает более 10 Пбайт информации и потребляет менее 2 кВт. Системам MED не грозит перегрев, поскольку они в основном рассчитаны на хранение архивных данных. На систему MED и её компоненты компанией Huawei получен ряд патентов. Решения первого поколения, как ожидается, выйдут в 2025 году. А на 2026–2027 гг. запланирован выпуск устройств второго поколения с отсеками формата 3,5″ (LFF). Нечто похожее предложила и Western Digital — компания запатентовала высокоинтегрированный LTO-картридж в корпусе HDD. Что касается дальнейших планов Huawei, то сейчас она разрабатывает собственные SSD вместимостью 60 Тбайт на основе флеш-памяти QLC NAND с SLC-кешированием.
14.10.2024 [14:58], Руслан Авдеев
В Брукхейвенской национальной лаборатории накопилось уже более 300 Пбайт физических данных — это больше, чем вся письменная история человечестваЦентр научных данных и вычислений (SDCC) Брукхейвенской национальной лаборатории (BNL) Министерства энергетики США (DoE) похвастался, что в его хранилищах находится уже свыше 300 Пбайт информации. Как сообщает Datacenter Dynamics, речь идёт о третьем по величине хранилище научных данных в Соединённых Штатах и крупнейшем в США архиве ленточных накопителей. Хранящиеся данные связаны с экспериментами в области ядерной физики и физики элементарных частиц. В пресс-релизе Брукхейвенской лаборатории руководство SDCC заявляет, что в архиве хранится вшестеро больше данных, чем составила бы вся письменная история человечества, начиная с источников на санскрите (50 Пбайт). В частности, в хранилище находятся данные, полученные в экспериментах на Релятивистском коллайдере тяжелых ионов (RHIC) Министерства энергетики США, который с 2000 года работает в Брукхейвенской лаборатории, и данные эксперимента ATLAS на Большом адронном коллайдере (БАК). Вся информация доступна онлайн и по запросу. Сведения хранятся в высокотехнологичной роботизированной ленточной библиотеке. В лаборатории уже разработано собственное ПО и веб-сайт для мониторинга передачи данных, структура также сотрудничает с другими лабораториями Министерства энергетики и IBM над развитием системы управления информацией — High-Performance Storage System (HPSS). Последняя гарантирует, что разные системы хранения данных, от лент до дисков, могут эффективно использоваться в различных комбинациях. Также разработано ПО, используемое физиками для доступа к информации SDCC. Представители SDCC сообщают, что лаборатория пользуется преимуществами гибридной СХД: данные хранятся в основном на лентах и переносятся на диски только в случае необходимости, что снижает стоимость эксплуатации и повышает экологичность хранения. Так, диски требуют охлаждения и энергию, тогда как ленты вне периода эксплуатации попросту лежат в библиотеках. Сами ленточные библиотеки размещены в специальных залах с оптимизированными энергопотреблением и охлаждением. Также имеются запасные ёмкости для растущего «кеша» данных, собираемых лабораториями. В рамках эксперимента sPHENIX учёные намерены получить около 565 Пбайт данных, которые одновременно пишутся и на диски, и на ленты. В следующем году на смену RHIC придёт EIC, который, как ожидается, будет генерировать 220 Пбайт/год. Отмечается, что ёмкость ленточных хранилищ обычно удваивается каждые 4–5 лет, а сами они становятся всё более компактными. Периодически перенося данные со старых носителей на новые, специалисты освобождают в библиотеке немало места. Сейчас потенциальная ёмкость библиотек Лаборатории составляет порядка 1,5 Эбайт, но учёные надеются, что со временем доведут её до 3 Эбайт. Примечательно, что спрос на ленточные картриджи только растёт. В 2023 году поставки достигли рекордного значения в 153 Эбайт. Правда, помогло это не всем вендорам.
01.10.2024 [10:12], Сергей Карасёв
Huawei представила All-Flash массивы OceanStor Dorado V7Компания Huawei анонсировала системы хранения данных OceanStor Dorado следующего поколения (V7), относящиеся к классу All-Flash. В семейство вошли модели high-end-класса OceanStor Dorado 8000/18000, решения среднего уровня OceanStor Dorado 5000/6000, а также версия начального уровня OceanStor Dorado 3000. В основу СХД положена полностью взаимосвязанная архитектура SmartMatrix 4.0 типа «активный — активный», которая обеспечивает стабильную работу систем даже в случае отказа семи из восьми контроллеров. Реализована поддержка протоколов FC, iSCSI, NFS, CIFS, FC-NVMe, NVMe over RoCE, NDMP, S3, NFS over RDMA. По заявлениям Huawei, решение Dorado 18000 обеспечивает в три раза большую производительность по сравнению с массивами предыдущего поколения, чему способствует разгрузка CPU на аппаратном уровне. В частности, применяются карты SmartNIC на базе DPU для разделения потоков данных и управления. Модернизированный интеллектуальный алгоритм взаимодействия FlashLink между контроллерами и DPU обеспечивает более 100 млн IOPS и «чрезвычайно низкую задержку в 0,03 мс» в системе, насчитывающей до 32 контроллеров. СХД обеспечивают гарантированную доступность данных на уровне 99,9999 %. Кроме того, реализована защита от программ-вымогателей с эффективностью до 99,99 %. Заявлена совместимость между разными СХД на уровне поколений. Это означает, что в одном кластере могут быть задействованы системы V7, ранее выпущенные V6 и будущие V8. Максимальная общая вместимость достигает 500 Пбайт. Интегрированная непрерывная защита данных на уровне ввода-вывода гарантирует, что информация может быть восстановлена в любой момент времени.
29.09.2024 [14:31], Сергей Карасёв
NetApp представила All-Flash СХД ASA A-Series с эффективной ёмкостью до 67 ПбайтКомпания NetApp анонсировала новые высокопроизводительные СХД семейства ASA A-Series класса All-Flash, оптимизированные для блочного хранения. Дебютировали модели ASA A1K, ASA A90 и ASA A70, которые, как утверждается, обеспечивают доступность данных на уровне 99,9999 %. Все новинки имеют 12-узловую конфигурацию и используют два контроллера в режиме «активный — активный». Модель ASA A1K получила исполнение 2 × 2U (плюс дисковая полка NS224 на 24 накопителя), а варианты ASA A90 и ASA A70 — 4U с 48 внутренними отсеками для SSD. У всех СХД максимальная конфигурация может включать 1440 накопителей. Эффективная ёмкость достигает 67 Пбайт с учётом компрессии 5:1. Доступны 18 слотов расширения PCIe. Говорится о поддержке 24 портов 200GbE и 36 портов 100GbE/40GbE. Младшая версия также поддерживает 48 портов 25GbE/10GbE/1GbE, две другие — 56. Среднее энергопотребление составляет 2718 Вт (с полкой NS224) у ASA A1K, 1950 Вт у ASA A90 и 1232 Вт у ASA A70. Заявлена совместимость с NVMe/TCP, NVMe/FC, FC, iSCSI, а также с платформами Windows Server, Linux, Oracle Solaris, AIX, HP-UX, VMware. Вместе с выпуском новых СХД компания NetApp усовершенствовала свой сервис Data Infrastructure Insights (ранее Cloud Insights) с целью улучшения возможностей мониторинга и анализа. Клиентам предоставляются дополнительные инструменты по управлению оптимизацией и надежностью инфраструктуры хранения данных, что позволяет повысить эффективность и производительность. Вместе с тем средства NetApp ONTAP Autonomous Ransomware Protection with AI (ARP/AI) обеспечивают обнаружение программ-вымогателей с точностью 99 %.
20.09.2024 [20:25], Руслан Авдеев
20 тонн HDD в труху — накопители хранилища Alpine уходящего на покой суперкомпьютера Summit отправили в измельчительПо словам специалистов Национальной лаборатории Ок-Ридж (ORNL) Министерства энергетики США, суперкомпьютеры и их компоненты утилизируются точно так же, как и ненужная бумага — буквально отправляются в измельчитель. И совсем скоро сотрудникам лаборатории предстоит разобрать суперкомпьютер Summit, который морально устарел, хотя всё ещё входит в десятку самых производительных систем мирового рейтинга TOP500. Summit хотели вывести из эксплуатации ещё в 2023 году, но из-за довольно высокой производительности пока решено оставить его в строю почти до ноября 2024 года в рамках программы SummitPLUS. Впрочем, часть комплекса уже модернизируется. Так, на смену хранилищу Alpine придёт Alpine 2. Данные из Alpine были переданы в другие СХД суперкомпьютерного центра Oak Ridge Leadership Computing Facility (OLCF). 19 ноября Alpine2 переключат в режим «только для чтения», а потом изменят конфигурацию хранилища для использования в других проектах. Alpine, основанная на параллельной файловой системе IBM Spectrum Scale, создавалась для временного хранения данных Summit и других систем. По словам учёных, Summit строили для симуляции процессов в сверхновых и термоядерных реакторах и вряд ли где-либо ещё есть такая же концентрация жёстких дисков в одном месте, как в системах ORNL, за исключением, возможно, гиперскейлеров. Другими словами, даже разборка Alpine, которая началась ещё летом — чрезвычайно трудоёмкий процесс, поскольку накопители приходится извлекать вручную и по одному. Alpine состояло из 40 стоек на площади около 130 м2. Хранилище суммарной ёмкостью 250 Пбайт включало 32 494 HDD. Речь идёт о почти 20 т оборудования. Чтобы обеспечить по-настоящему безопасное удаление данных, HDD отвозят для физического уничтожения. За этот процесс отвечает компания ShredPro Secure. HDD буквально крошатся металлическими зубьями до небольших фрагментов. На переработку одного диска уходит приблизительно 10 с, а за день можно уничтожить до 3,5 тыс. накопителей. Полученные остатки окончательно утилизируются в рамках программы по переработке металла ORNL, так что лаборатория ещё и получает деньги за сдачу вторичного сырья. Вывод из эксплуатации крупных вычислительных систем — постоянно совершенствуемый процесс, который с годами становится всё эффективнее. В последний раз крупное хранилище (Atlas) утилизировали в 2019 году, оно включало около 20 тыс. HDD. Утилизация своими силами заняла около 9 месяцев и оказалась очень дорогой. ShredPro Secure справилась гораздо быстрее, а сам процесс оказался гораздо дешевле. Поэтому компании в итоге отдали на уничтожение ещё около 10 тыс. HDD из других систем. Правда, теперь ORNL раздумывает над покупкой собственного измельчителя, чтобы дополнительно повысить безопасность и сэкономить ещё больше в долгосрочной перспективе.
18.09.2024 [18:04], Руслан Авдеев
Microsoft Research занялась разработкой нового поколения эффективных облачных хранилищПодразделение Microsoft Research, работающая в Кембридже (штат Массачусетс, США), занялась разработкой и созданием прототипов систем облачного хранения нового поколения. Datacenter Dynamics напоминает, что именно это подразделение стоит за проектом Project Silica, в рамках которого создавались носители, способные хранить данные 10 тыс. лет. В описании одной из вакансий говорится, что исследователи пересматривают фронт работ, переключаясь с создания носителей для архивных хранилищ на более «горячие» решения. В частности, упоминается, что недавние успехи с сфере ИИ и машинного обучения фундаментально изменили рамки возможного во многих сферах, включая разработку новых материалов, создание научных симуляций, обработку сигналов и т.п. От кандидата требуется докторская степень в области информатики или компьютерной инженерии или эквивалентный опыт работы в R&D в области СХД, ОС, сетей, распределённых систем и т.п. Новые подходы приводят к пересмотру возможностей облачных хранилищ в эпоху ЦОД, ограниченных в энергии — никогда запрос на недорогие и устойчивые хранилища данных не был столь высок. В рамках нового проекта исследователи намерены внедрять инновации на уровне носителей и методов записи и чтения информации. Проект потребует «изобретения новых методов исследования» для быстрой оценки того, как изменения на физическом уровне повлияют на ключевые показатели производительности хранилища. Создание эффективной системы с нуля также включает решение более традиционных задач — оценку рабочих нагрузок, планирование записи и чтения данных оптимальным образом, эффективное размещение информации на носителе, коррекция ошибок для защиты данных от ошибок и стирания. Главой проект является Ричард Блэк (Richard Black), который ранее работал над инициативой Pelican — под его руководством компания пыталась создать наиболее дешёвый массив дисковых накопителей.
15.08.2024 [00:10], Владимир Мироненко
Только не упоминай VMware: Dell Technologies и Nutanix представили совместные HCI-решенияDell Technologies и Nutanix объединили усилия для повышения простоты, гибкости и масштабируемости гибридных облачных инфраструктур с помощью двух новых решений — Dell XC Plus и Dell PowerFlex with Nutanix Cloud Platform, сообщил ресурс SiliconANGLE. Новинки, как ожидается, помогут предприятиям более эффективно управлять приложениями и рабочими нагрузками в средах Nutanix. Новые программно-аппаратные комплексы будут поставляться Dell. Dell XC Plus представляет собой готовую гиперконвергентную платформу на базе программного стека Nutanix Cloud Platform и серверов Dell PowerEdge. По словам компаний, Dell XC Plus обеспечивает бесперебойное управление в рамках единой структуры, предлагая клиентам больше выбора и контроля для удовлетворения меняющихся ИТ-требований. Платформа, по словам компаний, предоставляет безопасную, устойчивую и гибкую ИТ-среду, централизованное управление гибридным облаком, автоматизацию, оптимизацию планирования ресурсов и повышение производительности посредством ИИ-алгоритмов. В свою очередь, решение Dell PowerFlex with Nutanix Cloud Platform объединяет программно-определяемую инфраструктуру Dell с гипервизором Nutanix AHV и Cloud Platform. Dell PowerFlex — масштабируемая vSAN и гиперконвергентная система с поддержкой нескольких гипервизоров. PowerFlex станет первым внешним хранилищем, поддерживаемым и интегрированным с Nutanix Cloud Platform. Ключевые атрибуты этой новой интеграции включают защиту корпоративных данных и аварийное восстановление, сетевые функции и защиту. Nutanix и Dell подписали партнёрское соглашение в мае, пытаясь побудить клиентов Broadcom VMware перейти на совместную платформу Dell-Nutanix. Dell и Nutanix сообщили, что решение Dell PowerFlex with Nutanix Cloud Platform в настоящее время находится в разработке и будет доступно для раннего доступа клиентам в конце этого года, в то время как Dell XC Plus доступно уже сейчас. Примечательно, что в анонсе новых решений имя VMware не упоминается ни разу. |
|