Лента новостей
10.09.2024 [14:55], Сергей Карасёв
TACC ввёл в эксплуатацию Arm-суперкомпьютер Vista на базе NVIDIA GH200 для ИИ-задачТехасский центр передовых вычислений (TACC) при Техасском университете в Остине (США) объявил о том, что мощности нового НРС-комплекса Vista полностью доступны открытому научному сообществу. Суперкомпьютер предназначен для решения ресурсоёмких задач, связанных с ИИ. Формальный анонс машины Vista состоялся в ноябре 2023 года. Тогда говорилось, что Vista станет связующим звеном между существующим суперкомпьютером TACC Frontera и будущей системой TACC Horizon, проект которой финансируется Национальным научным фондом (NSF). Vista состоит из двух ключевых частей. Одна из них — кластер из 600 узлов на гибридных суперчипах NVIDIA GH200 Grace Hopper, которые содержат 72-ядерный Arm-процессор NVIDIA Grace и ускоритель H100/H200. Обеспечивается производительность на уровне 20,4 Пфлопс (FP64) и 40,8 Пфлопс на тензорных ядрах. Каждый узел содержит локальный накопитель вместимостью 512 Гбайт, 96 Гбайт памяти HBM3 и 120 Гбайт памяти LPDDR5. Интероконнект — Quantum 2 InfiniBand (400G). Второй раздел суперкомпьютера объединяет 256 узлов с процессорами NVIDIA Grace CPU Superchip, содержащими два кристалла Grace в одном модуле (144 ядра). Узлы укомплектованы 240 Гбайт памяти LPDDR5 и накопителем на 512 Гбайт. Интерконнект — Quantum 2 InfiniBand (200G). Узлы произведены Gigabyte, а за интеграцию всей системы отвечала Dell. Общее CPU-быстродействие Vista находится на отметке 4,1 Пфлопс. В состав комплекса входит NFS-хранилише VAST Data вместимостью 30 Пбайт. Суперкомпьютер будет использоваться для разработки и применения решений на основе генеративного ИИ в различных секторах, включая биологические науки и здравоохранение.
10.09.2024 [13:29], Руслан Авдеев
Дата-центры — новый люкс: индийский застройщик элитной недвижимости Rustomjee займётся ЦОД на фоне бума ИИИндийская Rustomjee, ранее занимавшаяся преимущественно строительством элитной недвижимости, пересматривает векторы развития. По данным Bloomberg, компания намерена заняться строительством дата-центров в Мумбаи на фоне бума ИИ — это крупнейший рынок недвижимости страны. Впрочем, от строительства жилья премиум-класса компания отказываться не намерена. Дата-центры будут возводить на территории около 465 тыс. м2 в Тхане (Thane) — пригороде Мумбаи, где у компании имеются «экономические интересы». Rustomjee фактически является брендом компании Keystone Realtors и намерена найти для проекта финансового партнёра. По такой схеме уже реализуются некоторые её проекты, в т.ч. в Тхане. Расположение пригорода весьма удачно, а на его территории уже развёрнута оптоволоконная инфраструктура и доступна электроэнергия. Ёмкость ЦОД в Индии с 2019 года почти удвоилась, что, по данным Avendus Capital, привлекло внимание многих инвесторов. Предположительно, только в Мумбаи в следующие пять лет мощности вырастут на 40 %. Инвесторы и компании, уже имеющие ЦОД, отмечают в текущем году взлёт стоимости своих акций — это обусловлено тем, что они предоставляют инфраструктуру, необходимую для внедрения ИИ. Keystone Realtors, чья капитализация в этом году достигла $1 млрд, начала деятельность в 1995 году со строительства доступного жилья в одном из пригородов Мумбаи, но позже её бренд Rustomjee, сформированный в 2001 году, переключился на иные проекты. Ранее в этом году представитель компании уже сообщил журналистам, что рассматривается бизнес, связанный со строительством ЦОД. В апреле текущего года в докладе DC Byte сообщалось, что Индия стала самым быстрорастущим рынком ЦОД в Азиатско-Тихоокеанском регионе. Так, в Мумбаи общая ёмкость достигла 2,6 ГВт, распределённых между двумя кластерами — в Центральном Мумбаи и Нави-Мумбаи (Navi Muṃbaī). В стране присутствуют и другие крупные операторы ЦОД, включая STT, NTT, Iron Mountain, PDG, CtrlS, Equinix и Tata. $2 млрд на строительство ЦОД в регионе намерена потратить и AWS. CapitaLand ожидает, что индийский рынок ЦОД ежегодно будет расти на 20–25 % до конца десятилетия.
10.09.2024 [12:34], Сергей Карасёв
Supermicro и её руководители уличены в нарушении Закона о ценных бумагах 1934 годаЮридическая фирма Robbins Geller Rudman & Dowd LLP, по сообщению ресурса Storage Newsletter, раскрыла информацию о том, что в коллективном иске под названием «Averza против Super Micro Computer» (№24-cv-06147; Северная Округ Калифорнии) указанный производитель серверного оборудования, а также некоторые его руководители обвиняются в нарушении Закона о ценных бумагах 1934 года. Напомним, ранее инвестиционная компания Hindenburg Research опубликовала разгромный доклад об операциях Supermicro. В частности, выявлены соглашения между связанными сторонами — такие договоры обычно заключаются между компанией и её дочерними структурами на нерыночных условиях. Hindenburg Research также обвинила Supermicro в нарушении санкционного режима. После этого акции компании упали в цене более чем на 20 %. В иске №24-cv-06147, а также в позднее поданной жалобе «Menditto против Super Micro Computer» (№24-cv-06149; Северный Округ Калифорнии) компания Supermicro обвиняется в ложных и (или) вводящих в заблуждение заявлениях и в сокрытии определённой информации. Компании в числе прочего вменяется:
Отмечается, что 28 августа 2024 года Supermicro объявила о задержке подачи формы 10-K за 2024 финансовый год, заявив, что «руководству необходимо дополнительное время для завершения оценки состояния и эффективности своих внутренних средств контроля над финансовой отчётностью».
10.09.2024 [12:19], Сергей Карасёв
Необычные процессоры Intel Xeon 6 R1S для односокетных систем предложат 136 линий PCIe 5.0Корпорация Intel, по сообщению ресурса ServeTheHome, готовит специальные версии процессоров Xeon 6 на основе производительных P-ядер (семейство Granite Rapids). Изделия R1S получат увеличенное количество линий PCIe 5.0, но при этом будут предназначены исключительно для односокетных систем. В вариантах 1S, 2S, 4S и 8S чипы Xeon Granite Rapids предлагают до 96 линий PCIe 5.0, до 64 линий CXL 2.0 и 12 каналов оперативной памяти (DDR5-6400 и MCR-8800). В семейство входят модели с 32, 44, 56, 72, 96, 120 и 128 ядрами Redwood Cove. Они имеют поддержку SMT и до 504 Мбайт L3-кеша. Величина TDP составляет до 500 Вт. Процессоры Xeon 6 R1S, как сообщается, обеспечат поддержку 136 линий PCIe 5.0. Количество вычислительных ядер, по всей видимости, не превысит 86. Для установки чипов потребуется материнская плата с разъёмом LGA-4710. Показатель TDP не превысит 350 Вт. Среди прочего упомянута поддержка до 64 линий CXL 2.0, а также 8-канальной памяти DDR5-6400 или MCR DIMM. В конфигурации 1S у чипов Xeon Granite Rapids универсальные блоки ввода-вывода (UIO) IO-тайла вместо UPI-подключения могут предоставить линии PCIe. В общей сложности IO-тайл имеет два блока ввода-вывода для PCIe/CXL и четыре блока UIO, которые можно использовать для PCIe, CXL и UPI. Таким образом, отказавшись от UPI, Intel может предложить дополнительные линии PCIe, в результате чего их количество может достигать 136. Такая конфигурация ориентирована на клиентов, которым не нужно много вычислительных ядер, но требуется как можно больше линий PCIe. Похожий подход используется и в AMD EPYC, где для связи между сокетами тоже приходится «забирать» часть линий PCIe.
10.09.2024 [12:10], Руслан Авдеев
China Mobile официально ввела в эксплуатацию кабель Peace, связывающий Сингапур и ФранциюКитайский оператор China Mobile официально активировал подводный кабель Peace, проложенный между Сингапуром и Францией. По данным Datacenter Dynamics, в посте LinkedIn компания объявила, что кабель протяжённостью 1500 км заработал целиком — это уже третья цифровая магистраль China Mobile, связывающая Азию с Европой после кабелей AAE-1 и SeaMeWe-5. Кабель имеет 13 посадочных станций в 12 странах, благодаря чему Сингапур связан не только с Европой, но и странами Азии и Африки. Строительство сингапурского участка началось в декабре прошлого года, а завершено в июле 2024-го. Кабель Peace производства Huawei впервые заработал в 2022 году, связав Марсель (Франция) с Египтом. В 2022 год были построены ответвления в Пакистан и Кению. В феврале 2024 года заработало ответвление в Тунис — совместно с местным подразделением Ooredoo. В том же месяце кабель протянули и на Мальдивы. Peace управляется гонконгской телеком-компанией PCCW Global и обеспечивает пропускную способность до 96 Тбит/с для сегмента Египет-Пакистан и 192 Тбит/с для средиземноморского сегмента от Египта до Франции. Ёмкость сингапурского фрагмента неизвестна. Сегодня в сингапурском порту Туас имеются посадочные станции для кабелей Indigo-West, IGG System, SeaMeWe-3, SeaMeWe-4, SeaMeWe-5 и Southeast Asia-Japan. В ближайшие три года заработают и другие кабели, включая MIST, INSICA, Asia Direct Cable, Apricot и Bifrost.
10.09.2024 [08:59], Руслан Авдеев
Гигаватт на орбите: Lumen Orbit предложила гигантские космические ЦОД с питанием от солнечной энергии и пассивным охлаждениемПока многие операторы ЦОД бьются за место и ресурсы для своих дата-центров на Земле, стартап Lumen Orbit трудится над созданием гигантских гигаваттных дата-центров на земной орбите. По словам компании, работа уже началась — первый спутник компании отправится в космос в 2025 году. Он, как ожидается, получит на два порядка более мощные ускорители, чем те, что когда-либо отправлялись в космос. Информация о проекте Lumen Orbit появилась ещё весной, но теперь обнародованы новые подробности. Как сообщается в материалах компании, будущие ЦОД гиперскейл-класса будут серьёзно нагружать энергосети (и уже делают это сегодня), станут потреблять немало питьевой воды, а их их работа будет всё хуже сочетаться с законами и правилами регуляторов «западного» мира. Другими словами, многогигаваттные ЦОД будет чрезвычайно трудно строить. Поэтому Lumen Orbit предлагает размещать дата-центры на околоземной орбите, лежащей в плоскости терминатора. Таким образом, солнечные элементы питания будут всегда освещены, а радиаторы пассивного охлаждения всегда в тени. А космическое излучение здесь не так сильно, чтобы быстро выводить из строя электронику. Одно из важнейших свойств решения Lumen Orbit — возможность почти бесконечного масштабирования из-за минимума регуляторных запретов и ограничений на потребляемые ресурсы, говорит компания. Согласно расчётам, солнечная энергия в космосе будет обходиться в $0,002/кВт∙ч, тогда как электричество в США, Великобритании и Японии сегодня в среднем стоит $0,045, $0,06 и $0,17 за кВт∙ч соответственно. Кроме того, вода в космосе совершенно не понадобится, а системы пассивного охлаждения (путём излучения) будут многократно эффективнее и стабильнее земных аналогов. Не понадобятся и резервные источники питания. Компания уже разработала и начала строительство первого космического аппарата. Разработан концептуальный дизайн микро-ЦОД, развёртывание которых запланировано на 2026 год,. Также планируется запуск крупного дата-центра Hypercluster — это будет возможно, когда начнётся коммерческая эксплуатация кораблей уровня SpaceX Starship. Сообщается, что уже заключены меморандумы о взаимопонимании, предполагающие использование ускорителей NVIDIA H100 в космосе. В компании утверждают, что для обучения больших языковых моделей вроде Llama 5 или GPT-6 в 2027 году потребуются 5-ГВт кластеры, которые создадут огромную нагрузку на электростанции и энергосети. Но в космосе можно будет создавать компактные модульные 3D-структуры. Передача данных может осуществляться с помощью лазеров. Более того, возможна совместимость с системами вроде Starlink, а когда необходимо — даже переброс данных специальными шаттлами. Об астрономах тоже не забыли — космические ЦОД будут заметны в основном на рассветах и закатах. Lumen Orbit предлагает отправлять укомплектованные контейнеры с серверами и всем необходимым оборудованием, который имеют универсальный порт для питания, сети, охлаждения и т.д. Через этот порт они подключаются к единой «шине». ЦОД мощностью 5 ГВт потребует развёртывание солнечных элементов размером приблизительно 4 × 4 км. Подходящие панели уже выпускаются и стоят порядка $0,03/Ватт. Тяжёлые ракеты будущего смогут поднимать на орбиту около 100 т. Этого достаточно для доставки модуля с 300 наполовину заполненными стойками (остальное пойдёт на вспомогательные системы). На 5-Гвт ЦОД ориентировочно потребуется менее 100 запусков при цене до $10/кг, а одной многоразовой ракеты будет достаточно для вывода на орбиту большого ЦОД за два-три месяца. Размещение на оптимальных орбитах и отсутствие некоторых агрессивных факторов влияния от нестабильных температур до окисления воздухом позволят эксплуатировать ЦОД в течение 15 лет, а многие компоненты можно будет использовать и после этого срока, говорит компания. Впрочем, в намерении Lumen Orbit нет ничего уникального. Ещё в конце 2023 года появлялась информация о том, что Axiom Space намерена построить космический дата-центр. Космический буксир Blue Ring Джеффа Безоса (Jeff Bezos) должен выполнять функции ЦОД, группировку спутников-суперкомпьютеров намерены создать даже итальянские военные, аналогичные проекты вынашивают и другие компании. Lumen Orbit тем временем получила финансовую поддержку от Y Combinator и NVIDIA.
09.09.2024 [17:39], Елена Копытова
Гигабиты сквозь бетон: Airvine Scientific представила Ethernet-мосты WaveCoreКомпания Airvine Scientific, специализирующаяся на беспроводных технологиях, представила систему WaveCore, которая позволяет передавать сетевые сигналы через толстые бетонные стены, устраняя необходимость в сверлении отверстий или прокладке кабелей по сложным маршрутам, передаёт The Register. Компания из Кремниевой долины утверждает, что система можно быстро развернуть, а сигнал может проникать через толстые бетонные стены и полы в коммерческих объектах недвижимости, что избавляет от необходимости долгого ожидания разрешения на сверление или прокладывания кабелей через лифты и шахты. WaveCore состоит из двух устройств, которые создают беспроводной мост, способный передавать данные через бетон толщиной до 30 см. В среднем стены коммерческих зданий достигают 20 см и более, говорит компания. Причём нередко такие стены являются несущими или используются для защиты важных помещений таких, как серверные или комнаты пожарной безопасности. Система WaveCore была разработана на основе существующего продукта WaveTunnel, который уже используется на заводах, складах, конференц-центрах и других крупных объектах. Задача заключалась в создании решения, которое могло бы обеспечивать передачу данных на скорости более 2 Гбит/с через бетон толщиной 30 см. Первые тесты у клиентов дали следующие результаты: 3 Гбит/с через 20 см бетона при использовании моста WaveCore в середине 16-метрового подключения и 4 Гбит/с через 30 см бетонной стены в середине подключения длиной 1,8 м. WaveCore использует направленные антенны, работающие в диапазоне 6 ГГц (ширина канала до 320 МГц), для передачи сигнала сквозь стену, а также связь Wi-Fi 5 (802.11b/g/n) для управления системой. Упомянуто шифрование WPA3-SAE (AES), но не уточняется, в каком диапазоне оно используется. Передача данных осуществляется через 1/2.5/5/10GbE-порт. Опционально доступен SFP+ порт. WaveCore потребляет 36 Вт и может питаться посредством PoE или от внешнего адаптера 12 В DC. Габариты устройства составляют 261 × 257 × 68 мм, масса — 1,8 кг. Устройство может работать при температуре от -20 °C до + 55 °C.
09.09.2024 [16:00], Владимир Мироненко
Корпоративная ИИ-платформа под ключ: HPE и NVIDIA объявила о доступности HPE Private Cloud AI(HPE) объявила о доступности входящей в портфель NVIDIA AI Computing by HPE программно-аппаратной платформы HPE Private Cloud AI на базе GreenLake, разработанной совместно с NVIDIA для создания и запуска корпоративных приложений генеративного ИИ. По словам компании, ключевым отличием HPE Private Cloud AI являются решения для автоматизации и оптимизации приложений ИИ, позволяющие предприятию сократить сроки запуска виртуальных помощников с нескольких месяцев до мгновений. К числу таких решений («ускорителей» в терминологии HPE) относится виртуальный помощник на базе генеративного ИИ, который поможет разработчикам быстро создавать интерактивные чат-боты, отвечающие на вопросы на естественном языке, на основе собственных данных организации и открытых больших языковых моделей (LLM). Компании смогут с их помощью настраивать свои приложения ИИ для различных целей, таких как техническая поддержка, формирование коммерческих предложений, создание маркетингового контента и многое другое. Виртуального помощника можно усовершенствовать, добавив в будущем голосовой ввод, возможность работы с изображениями и многокомпонентную поддержку, обеспечивая более продвинутую генерацию контента и работу в режиме многозадачности. Как утверждает HPE, будущие пакеты решений будут включать в себя широко используемые приложения ИИ для вертикальных отраслей, включая финансовые услуги, здравоохранение, розничную торговлю, энергетику и государственный сектор. Они будут основаны на NVIDIA NIM Agent Blueprints, эталонных вариантах ИИ-решений, которые предприятия смогут постоянно совершенствовать на основе собственных данных и отзывов клиентов. «Предприятия ищут ускоренные, настраиваемые инструменты ИИ, подходящие для конкретных вариантов использования с учётом их специфики, — говорит Джастин Бойтано (Justin Boitano), вице-президент по корпоративным программным продуктам ИИ в NVIDIA. — NVIDIA NIM Agent Blueprints позволяет приложениям ИИ, разработанным с помощью HPE Private Cloud AI, совершенствоваться с использованием обратной связи от живых пользователей, улучшая модели в рамках непрерывного цикла обучения». «Ускорители» HPE — это настраиваемые модульные low-code или no-code приложения, использующие микросервисы NVIDIA NIM. Эти проверенные и воспроизводимые решения упрощают развёртывание приложений ИИ, которое обычно включает приобретение новых навыков, принятие сложных рабочих нагрузок, а также интеграцию и настройку агентов, нескольких микросервисов, векторных баз данных, хранилищ данных, разрозненных источников данных, систем управления пользователями, масштабируемых серверов инференса, наборов данных, моделей ИИ и других ИТ-ресурсов. HPE также объявила о запуске партнёрской программы Unleash AI, разработанной для поддержки обширной экосистемы ведущих организаций-партнёров. Unleash AI является частью Technology Partner Program, входящей в инициативу HPE Partner Ready, которая дополнит HPE Private Cloud AI. Новая программа будет включать поставщиков на всех уровнях — от данных, моделей и приложений технологического стека до системных интеграторов и поставщиков услуг консалтинга, проектирования, внедрения и управления комплексными решениями для клиентов на основе ИИ. Решения партнёров, в том числе основанные на NVIDIA NIM Agent Blueprints, будут курироваться и предварительно проверяться для работы в HPE Private Cloud AI. Эта программа дополнит новую стратегию партнёрства в области ИИ, которую HPE объявила в сотрудничестве с NVIDIA.
09.09.2024 [12:10], Руслан Авдеев
LLM в комплекте: Red Hat выпустила платформу RHEL AI для работы с генеративным ИИRed Hat объявила о запуске платформы Red Hat Enterprise Linux AI (RHEL AI) для создания генеративных ИИ-решений в облачных средах. По данным Silicon Angle, анонсированный три месяца назад пакет ПО сделали общедоступным в ходе мероприятия Red Hat Summit. Ранее анонсированный пакет включает семейство открытых языковых моделей IBM Granite, а также инструмент настройки моделей InstructLab, разработанный самой RedHat. Всё это объединили в образ RHEL для развёртывания в гибридных облаках и на локальных площадках. В компании сообщили, что RHEL AI упростит и удешевит разработку компактных и недорогих моделей. Затраты на обучение моделей могут быть очень высокими, в Red Hat сообщают, что на создание некоторых передовых моделей уходит до $200 млн. И это только на обучение, без учёта стоимости самих данных и настройки, критически важной для выполнения специальных задач каждой конкретной компании. В Red Hat уверяют, что будущее за небольшими генеративными ИИ-моделями, большинство которых будет open source. В компании рассчитывают, что RHEL AI станет основной платформой для создания «бюджетных» и открытых решений. По умолчанию предоставляется библиотека бесплатных LLM Granite общего назначения. InstructLab поможет в тонкой настройке моделей без обширных навыков, связанными с наукой о данных. А интеграция с Red Hat OpenShift AI упростит обучение, настройку и обслуживание моделей. RHEL AI позволит разворачивать генеративный ИИ в непосредственной близости от баз данных и хранилищ компаний. RHEL AI оптимизирован для развёртывания на новейших серверах Dell PowerEdge и обеспечивает все возможности, предоставляемые подпиской Red Hat, в т.ч. круглосуточную поддержку, расширенную поддержку жизненного цикла моделей и, например, правовую защиту Open Source Assurance. Поскольку RHEL AI фактически является расширением Red Hat Enterprise Linux, дистрибутив можно использовать и на любом другом оборудовании, в том числе в облаках. Решение уже доступно у AWS и IBM Cloud, в Google Cloud и Azure появится возможность использовать его позже в этом году. В IBM Cloud ожидается появление предложения «как услуги» — по подписке в самом облаке, но только в следующем году. Ранее сообщалось, что для запуска RHEL AI требуются весьма производительные сертифицированные системы с ускорителями, имеющими минимум 320 Гбайт памяти и хранилище от 200 Гбайт. Среди протестированных указаны серверы Dell с четырьмя NVIDIA H100, Lenovo с восемью AMD Instinct MI300X, а также инстансы IBM Cloud GX3. Вскоре обещана поддержка инстансов AWS EC2 P5 с NVIDIA H100 и ускорителей Intel.
09.09.2024 [11:08], Сергей Карасёв
Gigabyte представила серверы с ускорителями NVIDIA HGX H200 и СЖО
amd
coolit systems
emerald rapids
epyc
genoa
gigabyte
h200
hardware
intel
nvidia
sapphire rapids
xeon
сервер
Компания Giga Computing, подразделение Gigabyte, анонсировала серверы G593-ZD1-LAX3 и G593-SD1-LAX3, предназначенные для ресурсоёмких нагрузок, связанных с ИИ. Устройства, оснащённые системой прямого жидкостного охлаждения (DLC) от CoolIT, могут нести на борту до восьми ускорителей NVIDIA HGX H200. Модель G593-ZD1-LAX3 выполнена в форм-факторе 5U. Допускается установка двух процессоров AMD EPYC 9004 поколения Genoa с показателем TDP до 400 Вт. Предусмотрены 24 слота для модулей оперативной памяти DDR5-4800. Во фронтальной части расположены отсеки для восьми SFF-накопителей (NVMe/SATA/SAS-4). Есть два коннектора М.2 для SSD типоразмера 2280/22110 с интерфейсом PCIe 3.0 x4 и PCIe 3.0 x1. Доступны восемь слотов PCIe 5.0 x16 для низкопрофильных карт расширения и четыре разъёма PCIe 5.0 x16 для карт FHHL. В оснащение входят два порта 10GbE (Intel X710-AT2), два выделенных сетевых порта управления 1GbE, два разъёма USB 3.2 Gen1. В свою очередь, сервер G593-SD1-LAX3 рассчитан на два процессора Intel Xeon Emerald Rapids или Sapphire Rapids, величина TDP которых может достигать 350 Вт. Для модулей ОЗУ DDR5-4800/5600 предусмотрены 32 слота. Прочие характеристики (за исключением разъёмов М.2) аналогичны модели на платформе AMD. Новые серверы укомплектованы шестью блоками питания мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Присутствует контроллер Aspeed AST2600. Диапазон рабочих температур — от 10 до +35 °C. Система DLC предназначена для отвода тепла от ускорителей NVIDIA HGX H200. При этом в области материнской платы и слотов PCIe установлены вентиляторы охлаждения. |
|