Материалы по тегу: hardware

04.11.2024 [17:05], Сергей Карасёв

NextSilicon представила самооптимизирующиеся ускорители вычислений Maverick-2

Компания NextSilicon сообщила о разработке устройств Maverick-2 — так называемых интеллектуальных вычислительных ускорителей (Intelligent Compute Accelerator, ICA). Изделия, как утверждается, обеспечивают высокую производительность и эффективность при решении задач HPC и ИИ, а также при обслуживании векторных баз данных.

NextSilicon разрабатывает новую вычислительную платформу для ресурсоёмких приложений. Применяются специальные программные алгоритмы для динамической реконфигурации оборудования на основе данных, получаемых непосредственно во время выполнения задачи. Это позволяет оптимизировать производительность и энергопотребление.

 Источник изображений: NextSilicon

Источник изображений: NextSilicon

Maverick-2 ICA, по словам компании, представляет собой программно-определяемый аппаратный ускоритель. По заявлениям NextSilicon, изделие в плане производительности на один ватт затрачиваемой энергии более чем в четыре раза превосходит традиционные GPU, а в сравнении с топовыми CPU и вовсе достигается 20-кратное превосходство. При этом говорится об уменьшении эксплуатационных расходов более чем в два раза.

«Телеметрические данные, собранные во время работы приложения, используются интеллектуальными алгоритмами NextSilicon для непрерывной самооптимизации в реальном времени. Результатом являются эффективность и производительность в задачах HPC при сокращении потребления энергии на 50–80 % по сравнению с традиционными GPU», — заявляет компания.

Решения Maverick-2 доступны в виде однокристальной карты расширения PCIe 5.0 x16 и двухкристального OAM-модуля. В первом случае объём памяти HBM3e составляет 96 Гбайт, энергопотребление — 300 Вт. У второго изделия эти показатели равны 192 Гбайт и 600 Вт. Тактовая частота в обоих вариантах — 1,5 ГГц. При производстве применяется 5-нм технология TSMC. Говорится о совместимости с популярными языками программирования и фреймворками, такими как C/C++, Fortran, OpenMP и Kokkos. Это позволяет многим приложениям работать без изменений, упрощая портирование и устраняя необходимость в проприетарном программном стеке.

Постоянный URL: http://servernews.kz/1113466
04.11.2024 [16:28], Владимир Мироненко

Supermicro смогла договориться с банком насчёт подачи годового отчёта, а с Nasdaq — не смогла

Supermicro (Super Micro Computer, SMCI) сообщила об изменениях в действующем кредитном соглашении с банком Cathay Bank. Одним из основных пунктов является продление сроков предоставления финансовой отчетности. Как указано в форме 8-K для SEC, дата подачи аудированных финансовых отчётов за 2024 финансовый год, заканчивающийся 30 июня 2024 года, была перенесена с 28 октября на 31 декабря 2024 года. Аналогичным образом срок отчёта за финансовый квартал, заканчивающийся 30 сентября 2024 года, был продлён с 29 ноября до 31 декабря 2024 года.

Новым соглашением также оговорено, что Supermicro обязана постоянно иметь в резерве не менее $150 млн свободных денежных средств. Это требование призвано гарантировать сохранение ликвидности, что имеет решающее значение для текущей деятельности и финансовой стабильности компании. Сообщается, что этот стратегический шаг отражает приверженность Supermicro поддержанию прочного финансового здоровья компании при адаптации к меняющимся потребностям бизнеса.

 Источник изображения: 𝓴𝓘𝓡𝓚 𝕝𝔸𝕀 / Unsplash

Источник изображения: 𝓴𝓘𝓡𝓚 𝕝𝔸𝕀 / Unsplash

Еще в августе Supermicro отложила подачу годового отчёта после публикации Hindenburg Research, в которой сообщалось о предполагаемом мошенничестве с бухгалтерским учётом и должностных преступлениях в сфере корпоративного управления. Перенос якобы был связан с решением провести полную внутреннюю проверку. Подача аудированного годового отчёта Supermicro в оговоренные с банком сроки сейчас под вопросом из-за отказа аудиторов Ernst & Young работать с компанией.

Фондовая биржа Nasdaq предупредила Supermicro о возможном делистинге, если компания не предоставит годовой отчёт до 16 ноября. NVIDIA, по слухам, занимается реструктуризацией заказов Supermicro, чтобы избежать возможных проблем с цепочками поставок. Supermicro входит в пятёрку крупнейших покупателей чипов NVIDIA.

Постоянный URL: http://servernews.kz/1113484
04.11.2024 [13:05], Сергей Карасёв

DeepL развернёт в Швеции ИИ-платформу на базе NVIDIA DGX GB200 SuperPod, чтобы «разрушить языковые барьеры»

Компания DeepL объявила о намерении развернуть вычислительный комплекс на платформе NVIDIA DGX SuperPOD с ускорителями GB200. Система расположится на площадке EcoDataCenter в Швеции, а её ввод в эксплуатацию запланирован на середину 2025 года.

DeepL специализируется на разработке средств автоматического перевода на основе ИИ. По заявлениям Ярека Кутыловски (Jarek Kutylowski), генерального директора и основателя DeepL, компания создала решение, которое по точности перевода превосходит все другие сервисы на рынке. Более 100 тыс. предприятий, правительственных структур и других организаций, а также миллионы индивидуальных пользователей по всему миру применяют языковые ИИ-инструменты DeepL. Штат компании насчитывает более 1 тыс. сотрудников. Её поддерживают инвестициями Benchmark, IVP, Index Ventures и др.

В 2023 году DeepL развернула суперкомпьютер Mercury на базе NVIDIA DGX SuperPOD с ускорителями H100. В июньском рейтинге TOP500 эта система занимает 41-е место с FP64-производительностью 21,85 Пфлопс и теоретическим пиковым быстродействием 33,85 Пфлопс.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Платформа NVIDIA DGX SuperPOD с ускорителями GB200 предусматривает использование жидкостного охлаждения. Возможно масштабирование до десятков тысяч ускорителей. DeepL намерена применять новый комплекс для исследовательских задач — в частности, для разработки передовых ИИ-моделей, которые позволят ещё больше расширить возможности средств перевода между различными языками. Это позволит «разрушить языковые барьеры для предприятий и профессионалов по всему миру», обещает компания.

Постоянный URL: http://servernews.kz/1113469
04.11.2024 [12:32], Руслан Авдеев

Регулятор США отказал в увеличении поставок энергии кампусу ЦОД AWS с АЭС Susquehanna

Федеральная комиссия по регулированию энергетики США (FERC) отклонила наращивание поставок электроэнергии кампусу ЦОД Amazon (AWS) от АЭС Susquehanna. По данным Reuters, регулятор не исключает, что результатом предложенного компаниями соглашения станет рост цен на электричество для рядовых потребителей и падение надёжности энергосети.

Поправка, предложенная оператором энергосети PJM Interconnection, предусматривает изменение ISA-соглашения на поставку энергии. В сделке также участвуют владелец АЭС Susquehanna Nuclear (структура Talen) и владелец линий электропередач, соединяющий станцию с электрической сетью, PPL Corp. Ожидалось, что дата-центрам AWS сразу станет доступно 480 МВт вместо изначальных 300 МВт.

В марте AWS приобрела за $650 млн кампус ЦОД с максимально допустимой мощностью 960 МВт, расположенный вблизи АЭС Susquehanna в Пенсильвании. В будущем компания намерена построить на площади около 650 га сразу 15 зданий ЦОД. Компания заключила соглашение с Talen о минимальной потребляемой мощности на объекте, которая будет расти с шагом в 120 МВт.

 Источник изображения: Talen Energy

Источник изображения: Talen Energy

Хотя в поправке оператор сети уверял, что рост отдаваемой ЦОД мощности не повлияет на надёжность энергосети электропередач, он предупредил, что поставка свыше 480 МВт может вызвать перебои передачи от АЭС к дата-центрам. В будущем нагрузка может быть увеличена до 960 МВт, но только при повышении надёжности сети. Например, при возникновении в сети серьёзных проблем АЭС может отключить питание ЦОД, а использование резервного питания должно быть ограничено особыми случаями, одобренными PJM и PPL.

В июне против соглашения выступили энергокомпании AEP и Exelon. Они подали жалобу в FERC, возмущённые запросом на бесплатную транспортировку энергии с АЭС Susquehanna Steam Electric Station (SSES) в дата-центры AWS. AEP и Exelon посчитали, что AWS всё равно будет пользоваться общей энергосетью Пенсильвании, но платить сборы за это не намерена. Сами участники сделки считают, что сторонних компаний она не касается. Опппоненты же уверены, что это опасный прецедент, несущий экономические и иные риски для других энергокомпаний и создающий финансовую нагрузку на других потребителей.

Как заявил комиссар FERC Марк Кристи (Mark Christie), соглашения о совместном размещении такого рода представляют собой сложный и многогранный вопрос. Они могут иметь серьёзно повлиять на надёжность энергосетей и стоимость электричества. Впрочем, единства нет даже в недрах самой FERC. При голосовании заявку отклонили двумя голосами против одного, а председатель FERC Вилли Филипс (Willie Phillips) выступил против запрета, указав на то, что такие меры могут подорвать доминирование США в гонке за первенство в сфере ИИ. По его словам, это шаг назад в деле защиты национальной безопасности.

Постоянный URL: http://servernews.kz/1113472
04.11.2024 [11:44], Сергей Карасёв

TeamGroup анонсировала индустриальные CAMM2-модули DDR5-6400

Компания TeamGroup анонсировала модули оперативной памяти DDR5 стандарта CAMM2 (Compression Attached Memory Module 2), предназначенные для использования в промышленной и корпоративной сферах. Изделия подходят для edge-систем, приложений ИИ, платформ управления производственным процессом и пр.

Отмечается, что модули CAMM2 обладают рядом преимуществ по сравнению с SO-DIMM, U-DIMM и R-DIMM. В частности, решения CAMM2 поддерживает двухканальный режим работы с одним модулем, что упрощает архитектуру системы и значительно снижает энергопотребление.

 Источник изображения: TeamGroup

Источник изображения: TeamGroup

Модули CAMM2 используют горизонтальное расположение, то есть монтируются параллельно материнской плате. Благодаря этому повышается эффективность рассеяния тепла. Для установки применяются резьбовые стойки. Утверждается, что память CAMM2 превосходит предыдущие стандарты по возможностям разгона, скорости чтения и задержкам.

Полностью характеристики анонсированных изделий компания TeamGroup пока не раскрывает. Известно, что они функционируют на частоте 6400 МГц. Массовые поставки планируется организовать в I квартале 2025 года.

Нужно отметить, что Комитет стандартизации полупроводниковой продукции (JEDEC) утвердил стандарт CAMM2 в декабре 2023 года. Ширина модулей данного типа составляет 78 мм. На момент анонса спецификации говорилось о поддержке ёмкостей до 128 Гбайт. Предусмотрена возможность использования памяти DDR5 для настольных компьютеров и рабочих станций, а также LPDDR5X для тонких и лёгких ноутбуков. При необходимости модули могут оснащаться радиатором охлаждения.

Постоянный URL: http://servernews.kz/1113465
03.11.2024 [13:15], Сергей Карасёв

Google объявила о доступности ИИ-ускорителей TPU v6 Trillium

Компания Google сообщила о том, что её новейшие ИИ-ускорители TPU v6 с кодовым именем Trillium доступны клиентам для ознакомления в составе облачной платформы GCP. Утверждается, что на сегодняшний день новинка является самым эффективным решением Google по соотношению цена/производительность.

Официальная презентация Trillium состоялась в мае нынешнего года. Изделие оснащено 32 Гбайт памяти HBM с пропускной способностью 1,6 Тбайт/с, а межчиповый интерконнект ICI обеспечивает возможность передачи данных со скоростью до 3,58 Тбит/с (по четыре порта на чип). Задействованы блоки SparseCore третьего поколения, предназначенные для ускорения работы с ИИ-моделями, которые используются в системах ранжирования и рекомендаций.

 Источник изображений: Google

Источник изображений: Google

Google выделяет ряд существенных преимуществ Trillium (TPU v6e) перед ускорителями TPU v5e:

  • Более чем четырёхкратное повышение производительности при обучении ИИ-моделей;
  • Увеличение производительности инференса до трёх раз;
  • Улучшение энергоэффективности на 67 %;
  • Повышение пиковой вычислительной производительности в расчёте на чип в 4,7 раза;
  • Двукратное увеличение ёмкости HBM;
  • Удвоение пропускной способности межчипового интерконнекта ICI.

Один узел включает восемь ускорителей TPU v6e (в двух NUMA-доменах), два неназванных процессора (суммарно 180 vCPU), 1,44 Тбайт RAM и четыре 200G-адаптера (по два на CPU) для связи с внешним миром. Отмечается, что посредством ICI напрямую могут быть объединены до 256 изделий Trillium, а агрегированная скорость сетевого подключение такого кластера (Pod) составляет 25,6 Тбит/с. Десятки тысяч ускорителей могут быть связаны в масштабный ИИ-кластер благодаря платформе Google Jupiter с оптической коммутацией, совокупная пропускная способность которой достигает 13 Пбит/с. Trillium доступны в составе интегрированной ИИ-платформы AI Hypercomputer.

Заявляется, что благодаря ПО Multislice Trillium обеспечивается практически линейное масштабирование производительности для рабочих нагрузок, связанных с обучением ИИ. Производительность кластеров на базе Trillium может достигать 91 Эфлопс на ИИ-операциях: это в четыре раза больше по сравнению с самыми крупными развёртываниями систем на основе TPU v5p. BF16-производительность одного чипа TPU v6e составляет 918 Тфлопс, а INT8 — 1836 Топс.

В бенчмарках Trillium по сравнению с TPU v5e показал более чем четырёхкратное увеличение производительности при обучении моделей Gemma 2-27b, MaxText Default-32b и Llama2-70B, а также более чем трёхкратный прирост для LLama2-7b и Gemma2-9b. Кроме того, Trillium обеспечивает трёхкратное увеличение производительности инференса для Stable Diffusion XL (по отношению к TPU v5e). По соотношению цена/производительность TPU v6e демонстрирует 1,8-кратный рост по сравнению с TPU v5e и примерно двукратный рост по сравнению с TPU v5p. Появится ли более производительная модификация TPU v6p, не уточняется.

Постоянный URL: http://servernews.kz/1113447
03.11.2024 [12:15], Сергей Карасёв

Google Cloud представила инстансы A3 Ultra с ускорителями NVIDIA H200 и готовится развернуть суперускорители GB200 NVL72

Компания Google объявила о том, что в составе её облачной платформы в скором времени станут доступны инстансы A3 Ultra на базе ускорителей NVIDIA H200. Новые виртуальные машины предназначены для ресурсоёмких нагрузок, связанных с ИИ, включая обучение больших языковых моделей (LLM).

Напомним, в августе 2023 года Google анонсировала инстансы A3 с ускорителями NVIDIA H100. Позднее дебютировали виртуальные машины A3 Mega с поддержкой конфиденциальных вычислений. А до конца текущего месяца клиенты получат доступ к A3 Ultra со значительно более высокой производительностью.

Представленные инстансы построены на серверах с новыми DPU Titanium ML, оптимизированными для высокопроизводительных облачных рабочих нагрузок ИИ. Заявленная пропускная способность RDMA-соединений GPU↔GPU достигает 3,2 Тбит/с (RoCE). Задействована фирменная платформа Google Jupiter с оптической коммутацией.

 Источник изображений: Google

Источник изображений: Google

По сравнению с A3 Mega виртуальные машины A3 Ultra обеспечивают следующие преимущества:

  • Двукратное повышение пропускной способности интерконнекта GPU↔GPU;
  • До двух раз более высокая производительность инференса при работе с LLM;
  • Возможность масштабирования до десятков тысяч GPU в кластере высокой плотности с оптимизированной производительностью для масштабных задач ИИ и HPC.

Инстансы A3 Ultra будут доступны через Google Kubernetes Engine (GKE). Кроме того, виртуальные машины войдут в состав Hypercompute Cluster — специализированной платформы, объединяющей передовые ИИ-технологии Google Cloud.

Отмечается также, что в начале 2025 года Google развернёт системы на базе NVIDIA GB200 NVL72. Ранее Google демонстрировала собственный вариант этого суперускорителя.

Постоянный URL: http://servernews.kz/1113448
03.11.2024 [12:07], Руслан Авдеев

Bain Capital получила контроль над европейским оператора ЦОД AQ Compute и обещает многомиллиардные инвестиции в развитие бизнеса

Частная инвестиционная компания Bain Capital из США приобрела 80 % акций европейского оператора ЦОД AQ Compute. По данным Datacenter Dynamics, сумма сделки не раскрывается, но бывший владелец контрольного пакета Aquila Group примет участие в дальнейших инвестициях и сохранит за собой 20 % акций.

Последняя основала AQ Compute в 2020 году, а первый ЦОД компании на 6 МВт открылся в Осло (Норвегия) в феврале 2024 года. Теперь его расширяют и на участке доступно уже 21 МВт. Предполагается, что в дальнейшем можно будет нарастить ёмкость до 171 МВт. Сейчас компания строит 60-МВт ЦОД в Барселоне (Испания) и Милане (Италия), объекты ориентированы на гиперскейлеров и ИИ-инфраструктуру.

После сделки Bain Capital и Aquila Group объявили, что намерены значительно ускорить расширение бизнеса в Европе. В Aquila Capital сообщили о намерении инвестировать сотни миллионов евро в общий проект. Aquila Group займётся развитием и Aquila Clean Energy, независимого поставщика «чистой» энергии.

 Источник изображения: AQ Compute

Источник изображения: AQ Compute

Bain Capital владеет одним из крупнейших операторов дата-центров в Азии ChinData, якорным клиентом которого является ByteDance (TikTok). Bain купила ChinData в 2019 году, объединила её с Bridge Data Centres и вывела новую структуру на IPO в 2020 году, сохранив за собой долю в 42 %. Однако в прошлом году Bain вновь приватизировала ChinData в результате сделки по слиянию с дочерними структурами, процесс обошёлся в $3,16 млрд. С марта 2024 года Bain не оставляет попыток продать ChinData целиком или по частям. Кроме того, Bain Capital инвестировала в оператора DC Blox в США.

Постоянный URL: http://servernews.kz/1113453
03.11.2024 [11:12], Сергей Карасёв

Nebius, бывшая Yandex, увеличила квартальную выручку почти в 9 раз

Нидерландская Nebius Group N.V. (бренд Nebius), бывшая материнская компания «Яндекса», обнародовала неаудированные финансовые результаты за III квартал 2024 года. Выручка за трёхмесячный период достигла $43,3 млн: это почти в 9 раз, на 766 %, больше прошлого результата, составлявшего около $5,0 млн.

Отрицательный показатель скорректированной EBITDA (прибыль до вычета процентов, налогов и амортизационных отчислений) сократился в годовом исчислении на 23 % — с $67,6 млн до $51,9 млн. При этом скорректированный чистый убыток оказался на отметке $47,3 млн против $86,5 млн в III четверти 2023 года.

 Источник изображения: Nebius

Источник изображения: Nebius

Основной бизнес Nebius Group — это облачная платформа Nebius AI, ориентированная на ИИ-нагрузки. Компания предоставляет заказчикам вычислительные ресурсы, хранилища и управляемые сервисы на базе оборудования собственной разработки, включая серверы и стойки.

В III квартале 2024 года на долю Nebius AI пришлось около двух третей от общей выручки группы. Поступления от облачных услуг выросли почти в 8 раз по сравнению с предыдущим годом, тогда как ARR (годовой регулярный доход) превысил $120 млн по состоянию на сентябрь 2024 года. Клиентская база расширилась до более чем 40 обслуживаемых заказчиков по сравнению с 30 во II квартале 2024 года. В частности, появились новые клиенты из списка Fortune 500.

Nebius начала реализацию своей масштабной программы по инвестированию более $1 млрд в инфраструктуру ИИ по всей Европе к середине 2025 года. Компания запустит первый ИИ-кластер во Франции на базе ускорителей NVIDIA H200. Кроме того, продолжает расширяться ассортимент доступных облачных сервисов.

Постоянный URL: http://servernews.kz/1113450
02.11.2024 [21:47], Владимир Мироненко

Облако AWS стало основным драйвером роста выручки Amazon — компания готова и дальше вкладываться в ИИ-инфраструктуру

Amazon объявила результаты III квартала 2024 года, завершившегося 30 сентября, в котором облачные сервисы вновь стали одним из основных драйверов роста. Выручка Amazon составила $158,88 млрд, превысив показатель аналогичного квартала прошлого года на 11 %, а также консенсус-прогноз аналитиков, опрошенных LSEG, в размере $157,2 млрд.

При этом выручка облачного подразделения Amazon Web Services (AWS) выросла на 19 % до $27,4 млрд, немного не дотянув до прогноза аналитиков StreetAccount в размере $27,52 млрд, пишет CNBC. Увеличение выручки AWS ускоряется уже пятый квартал подряд.

Доля ИИ-решений в выручке AWS составляет миллиарды долларов и более чем вдвое увеличилась по сравнению с прошлым годом, сообщил гендиректор Amazon Энди Джесси (Andy Jassy), ранее возглавлявший AWS: «Я считаю, что у нас больше спроса, чем мы могли бы удовлетворить, если бы у нас было ещё больше (вычислительных) мощностей сегодня». «Думаю, что сегодня у всех меньше мощностей, чем имеется спроса», — отметил он, добавив, что именно увеличение поставок чипов позволило бы решить эту проблему.

 Источник изображений: AWS

Источник изображений: AWS

Операционная прибыль AWS достигла $10,45 млрд, что на 50 % больше показателя годичной давности и составляет 60% операционной прибыли её материнской компании. Аналитики ожидали рост до $9,15 млрд. В отчётном квартале операционная маржа AWS, ключевой показатель прибыльности в процентах от продаж, достигла нового максимума в 38,1 %. Для сравнения, квартальная операционная маржа Google Cloud составила 17,1 % при прибыли в размере $1,9 млрд и выручке в $11,4 млрд.

Финансовый директор Amazon Брайан Олсавски (Brian Olsavsky) назвал в числе факторов, повышающих маржу AWS ускорение спроса на её услуги и стремление к эффективности и контролю затрат во всём бизнесе, включая более продуманный найм персонала. Кроме того, он сообщил о продлении AWS в 2024 году срока службы своих серверов.

Олсавски рассказал, что Amazon ожидает около $75 млрд капитальных затрат в 2024 году, большая часть которых будет направлена на технологическую инфраструктуру, связанную в первую очередь с AWS. В свою очередь, Джесси предположил, что капитальные расходы компании будут ещё выше в 2025 году, отметив, что рост «действительно обусловлен генеративным ИИ», и добавив, что, по его мнению, инвестиции в конечном итоге окупятся.

«Наш бизнес в сфере ИИ — это многомиллиардный бизнес, рост которого исчисляется трехзначными процентами из года в год, и на данном этапе развития он растёт в три раза быстрее, чем AWS», — цитирует слова Джесси ресурс geekwire.com. Джесси отметил, что платформа в целом AWS тоже «росла довольно быстро».

Также в отчётном квартале AWS объявила в соцсети X о решении закрыть некоторые сервисы, включая CodeCommit. Гендиректор AWS Мэтт Гарман (Matt Garman) объяснил ресурсу TechCrunch, что AWS «не может инвестировать во всё подряд». В текущем квартале Amazon прогнозирует выручку в диапазоне от $181,5 до $188,5 млрд, что означает рост на 7–11 % в годовом исчислении. Средняя точка этого диапазона, $185 млрд, немного ниже консенсус-прогноза аналитиков в $186,2 млрд (LSEG).

Постоянный URL: http://servernews.kz/1113446
Система Orphus