Лента новостей

08.06.2025 [23:35], Владимир Мироненко

Marvell получила рекордную выручку и рассчитывает на дальнейшее успешное сотрудничество с гиперскейлерами

Американская компания Marvell Technology, специализирующаяся на производстве процессоров, микроконтроллеров и телекоммуникационных решений, сообщила результаты I квартала 2026 финансового года, завершившегося 3 мая 2025 года, отметив рекордную выручку в размере $1,89 млрд, что на 63 % больше год к году и на $20 млн превысило собственный прогноз в средней точке диапазона. Также показатель превысил консенсус-прогноз аналитиков, опрошенных LSEG, в размере $1,88 млрд, пишет Reuters.

Чистая прибыль компании (GAAP) составила за I квартал 2026 финансового года $177,9 млн, или $0,20 на разводненную акцию, тогда как годом ранее у неё были убытки в размере $215,6 млн или $0,25 на разводнённую акцию. Скорректированная прибыль (Non-GAAP) равняется $540,0 млн или $0,62 на разводнённую акцию.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Выручка сегмента решений для ЦОД, на который приходится 76 % от общего дохода компании, составила $1,44 млрд, увеличившись год к году на 76 % во многом благодаря сделкам по разработке ИИ-ускорителей AWS Trainium и Microsoft Maia. По словам Мэтта Мерфи (Matt Murphy), председателя и гендиректора Marvell Technology, программа по разработке XPU для крупного американского клиента-гиперскейлера продвигается успешно, она стала ключевым источником дохода для бизнеса, связанного с заказами. Broadcom уже разрабатывает ИИ-ускорители для трёх крупных клиентов и обсуждает разработку с ещё четырьмя потенциальными клиентами.

«Как я упоминал в прошлом квартале, мы активно сотрудничаем с этим заказчиком в разработке следующего поколения чипов, и я хочу сообщить, что теперь мы обеспечили производство 3-нм пластин и усовершенствованной упаковки и планируем начать производство в 2026 году. В то же время наша команда архитекторов работает с заказчиком, чтобы поддержать подгтовку следующего поколения», — сообщил Мерфи. Речь идёт об AWS, и Мерфи имеет в виду находящийся в производстве Trainium 2, платформу для Trainium 3 и спецификации для будущего Trainium 4, пояснил ресурс The Next Platform.

Мерфи добавил, что проект по созданию ИИ-ускорителя следующего поколения, разработанного для другого американского гиперскейлера, по всей видимости, чипа Maia 100 для Microsoft, «продолжает успешно развиваться» и что компания уже сотрудничает с тем же заказчиком в разработке следующего ИИ XPU с предположительным названием Maia 200. 17 июня Marvell планирует провести мероприятие, на котором, возможно, предоставит более подробную информацию о текущих разработках и о своих планах по дальнейшему развитию этого бизнеса.

В сегменте корпоративных сетевых продуктов, включая коммутаторы Prestera и Innovium, и сетевые интерфейсные платы, выручка выросла на 16 % до $177,5 млн, в сегменте операторских инфраструктур — на 93 % до $138,4 млн. В потребительском сегменте продажи выросли год к году на 50 % до $61,1 млн, но упали последовательно на 29 %, что связано с сезонными изменениями в спросе. Сегмент решений для автомобильной сферы и промышленной отрасли принёс $75,7 млн, что на 12 % меньше, чем в предыдущем квартале и на 2 % меньше, чем годом ранее.

В текущем, II квартале 2026 финансового года Marvell ожидает получить выручку в размере $2,0 млрд ± 5 % по сравнению со средней оценкой аналитиков в $1,98 млрд согласно данным опроса аналитиков компанией LSEG. Прогнозируемая прибыль (GAAP) на разводнённую акцию равна $0,21 ± $0,05, ожидаемая скорректированная прибыль (Non-GAAP) на разводнённую акцию — $0,67 ± $0,05.

Постоянный URL: https://servernews.kz/1124127
08.06.2025 [22:46], Руслан Авдеев

Австралийские военные по ошибке «положили» Wi-Fi и радио на побережье Новой Зеландии

Австралийский военный корабль обвинили в отключении интернета в некоторых частях региона Таранаки (Taranaki) в Новой Зеландии. Инцидент имел место на прошлой неделе — жалобы от местных провайдеров поступили рано утром в среду (по местному времени), сообщает Datacenter Dynamics.

Крупнейший корабль австралийских ВМС HMAS Canberra следовал вдоль новозеландского побережья в направлении Веллингтона (Wellington, Новая Зеландия). По официальной версии, навигационный радар вызвал сбои в работе Wi-Fi в Таранаки, а также Марлборо (Marlborough). После того, как на корабле узнали о проблеме, HMAS Canberra изменил частоты оборудования, устранив помехи.

 Источник изображения: Royal Australian Navy

Источник изображения: Royal Australian Navy

От неожиданного «нападения» пострадали несколько интернет-провайдеров региона, включая местную компанию Primo. По словам её владельца Мэтью Харрисона (Matthew Harrison), радар вывел из строя немало 5-ГГц радиосетей в некоторых частях Новой Зеландии. Как заявил Харрисон, с двух часов ночи в сети Primo начались перебои из-за срабатывания механизма DFS (Dynamic Frequency Selection), автоматически отключающего точки доступа при обнаружении сигналов радаров во избежание помех для критически важных систем, включая систему морской радиолокации.

Речь шла именно о полноразмерном военном радаре, работа которого и инициировала встроенные в оборудование протоколы безопасности, отключавшие Wi-Fi по мере продвижения корабля вдоль побережья. В Primo указывают, что ничего похожего ранее не видели. Пострадали и прочие компании в регионе, включая Inspire Net Ltd и TPNet NZ. Также была нарушена и работа радиостанции BrianFM, расположенная в городке Бленем (Blenheim) на Южном острове Новой Зеландии — ей пришлось перейти на резервную систему вещания, чтобы не прекращать трансляцию.

Постоянный URL: https://servernews.kz/1124124
07.06.2025 [23:11], Владимир Мироненко

Акции Broadcom упали из-за слабого прогноза, несмотря рост прибыли и выручки

Broadcom опубликовала финансовые результаты II квартала 2025 финансового года, завершившегося 4 мая. Несмотря на успешные итоги квартала, превысившие прогнозы аналитиков Уолл-стрит, акции компании упали на 4 % на расширенных торгах из-за слабого прогноза на III финансовый квартал после роста примерно на 12 % в этом году и более чем двукратного роста в прошлом, пишет Reuters. Прогноз на текущий квартал не впечатлил инвесторов, которые ожидали существенного роста, обусловленного достижениями в области ИИ.

 Источник изображений: Broadcom

Источник изображений: Broadcom

Выручка Broadcom во II финансовом квартале выросла год к году на 20 % до $15,00 млрд, превысив прогноз аналитиков, опрошенных LSEG, в размере $14,99 млрд. Скорректированная чистая прибыль (Non-GAAP) составила $1,58 на разводнённую акцию, что выше прошлогоднего показателя на $0,48 и немного больше прогноза аналитиков от LSEG — на $0,02.

Чистая прибыль (GAAP) за II финансовый квартал выросла на 134 % до $4,97 млрд или $1,03 на разводнённую акцию с $2,12 млрд или $0,44 на разводнённую акцию годом ранее. Скорректированный показатель EBITDA увеличился до $10,00 млрд с $7,43 млрд в прошлом году (рост год к году — 35 %), составив 67 % выручки.

Выручка от ИИ-решений выросла год к году во II финансовом квартале на 46 % $4,4 млрд, что обусловлено устойчивым спросом на сетевые решения для ИИ, сообщил Хок Тан (Hock Tan), президент и гендиректор Broadcom. По его словам, в текущем квартале компания ожидает увеличить выручку от ИИ-решений до $5,1 млрд, что означает рост в течение десяти кварталов подряд.

Тан заявил, что компания по-прежнему успешно сотрудничает с тремя крупными клиентами в разработке кастомных ИИ-ускорителей, а также ведёт работу в этом направлении с ещё четырьмя потенциальными клиентами. Он отметил, что партнёры «непоколебимы» в своих планах инвестировать в ИИ-инфраструктуру.

 Источник изображений: Broadcom

Группа полупроводниковых решений Semiconductor solutions принесла Broadcom на 17 % больше выручки, составившей $8,41 млрд (56 % всей выручки), превысив прогноз аналитиков, опрошенных StreetAccount, в размере $8,34 млрд. Разработчики ПО (Infrastructure software), включая VMware, получили выручку в размере $6,60 млрд (рост 25 %), превзойдя оценку StreetAccount.

Broadcom заявила, что ожидает получить в III финансовом квартале около $15,8 млрд выручки, что на 21 % больше, чем за аналогичный период предыдущего года, против $15,7 млрд, прогнозируемых аналитиками Уолл-стрит.

Постоянный URL: https://servernews.kz/1124107
07.06.2025 [16:35], Сергей Карасёв

HPE представила отказоустойчивые системы Nonstop Compute на базе Intel Xeon Sapphire Rapids

Компания HPE пополнила семейство отказоустойчивых решений Nonstop Compute двумя новинками — системой начального уровня NS5 X5 и флагманской моделью NS9 X5. Архитектура платформ объединяет вычислительные мощности, ресурсы хранения, сетевые функции и сопутствующее ПО.

Решение Nonstop Compute NS5 X5 ориентировано на сравнительно небольших корпоративных заказчиков. Система формата 36U/42U может нести на борту до четырёх процессоров Intel Xeon Bronze 3400 поколения Sapphire Rapids. Объём оперативной памяти достигает 128 Гбайт в расчёте на CPU, что в сумме даёт до 512 Гбайт. Возможна установка до 100 SAS SSD вместимостью 1,6 Тбайт каждый. Допускается также подключение внешних массивов хранения HPE XP8. В общей сложности могут использоваться до 20 сетевых портов, в том числе 10GbE.

 Источник изображения: HPE

Источник изображения: HPE

В свою очередь, модель Nonstop Compute NS9 X5 ориентирована на ресурсоёмкие нагрузки, такие как обработка транзакций в реальном времени в больших масштабах и интенсивная работа с данными. Максимальная конфигурация включает 16 процессоров Xeon Gold 6400 семейства Sapphire Rapids с 512 Гбайт памяти в расчёте на CPU, что в сумме обеспечивает до 8 Тбайт ОЗУ. Система может быть оборудована 2700 SAS SSD ёмкостью до 1,6 Тбайт каждый. Предусмотрена возможность использования до 270 сетевых портов на систему, в том числе 25GbE.

В целом, решения Nonstop Compute ориентированы на сегмент рынка, где требуется менее высокая стоимость по сравнению с традиционными мейнфреймами, но при этом предъявляются более высокие требования в плане надёжности и масштабируемости, чем к стандартным серверам.

IDC относит продукты Nonstop Compute к системам с доступностью класса Availability Level 4 (AL4): это означает, что показатель безотказной работы составляет от 99,999 % до 99,9999 %. Таким образом, системы подходят для применения в том числе в финансовом секторе. HPE утверждает, что шесть из десяти крупнейших мировых банков используют устройства Nonstop Compute.

Постоянный URL: https://servernews.kz/1124085
07.06.2025 [16:31], Сергей Карасёв

Synology выпустила стоечное хранилище RackStation RS2825RP+ с процессором AMD Ryzen Embedded

Компания Synology анонсировала сетевое хранилище данных RackStation RS2825RP+ для предприятий малого и среднего бизнеса. Устройство, рассчитанное на монтаж в стойку, выполнено на аппаратной платформе AMD, а в качестве ОС применяется фирменная система DiskStation Manager (DSM) на основе веб-интерфейса.

Новинка несёт на борту процессор Ryzen Embedded V1780B с четырьмя ядрами (восемь потоков), работающими на частоте до 3,6 ГГц. Базовая конфигурация включает 8 Гбайт оперативной памяти DDR4 ECC с возможностью расширения до 32 Гбайт (два модуля UDIMM).

Во фронтальной части расположены 16 отсеков для накопителей LFF/SFF с интерфейсом SATA-3. Поддерживается формирование массивов RAID 0/1/5/6/10. При необходимости можно добавить модуль расширения RX1225RP, предоставляющий ещё 12 посадочных мест для накопителей LFF/SFF. Допускается горячая замена.

 Источник изображений: Synology

Источник изображений: Synology

Хранилище RackStation RS2825RP+ располагает двумя сетевыми портами 1GbE и портом 10GbE (все на основе разъёмов RJ45), двумя портами USB 3.0 и коннектором Mini-SAS HD. Есть также слот PCIe 3.0 x8, в который может быть установлен адаптер для M.2 SSD, сетевой контроллер 10GbE или 25GbE. Новинка выполнена в форм-факторе 3U с размерами 132,3 × 482 × 656,5 мм, а масса составляет 17,3 кг. Установлены два блока питания мощностью 550 Вт каждый. В системе охлаждения задействованы три вентилятора диаметром 80 мм. Диапазон рабочих температур — от 0 до +35 °C.

Для устройства заявлена поддержка протоколов SMB1/2/3 (CIFS), NFSv3/4/4.1, NFS Kerberized sessions, iSCSI, HTTP(S), FTP, SNMP, LDAP, CalDAV. Производительность достигает 3519 Мбайт/с при последовательном чтении и 1790 Мбайт/с при последовательной записи. Приём заказов на хранилище уже начался.

Постоянный URL: https://servernews.kz/1124086
07.06.2025 [16:24], Владимир Мироненко

AMD впервые приняла участие в бенчмарке MLPerf Training, но до рекордов NVIDIA ей ещё очень далеко

Консорциум MLCommons объявил новые результаты бенчмарка MLPerf Training v5.0, отметив быстрый рост и эволюцию в области ИИ, а также рекордное количество общих заявок и увеличение заявок для большинства тестов по сравнению с бенчмарком v4.1.

MLPerf Training v5.0 предложил новый бенчмарк предварительной подготовки большой языковой модели на основе Llama 3.1 405B, которая является самой большой ИИ-моделью в текущем наборе тестов обучения. Он заменил бенчмарк на основе gpt3 (gpt-3-175B), входивший в предыдущие версии MLPerf Training. Целевая группа MLPerf Training выбрала его, поскольку Llama 3.1 405B является конкурентоспособной моделью, представляющей современные LLM, включая последние обновления алгоритмов и обучение на большем количестве токенов. Llama 3.1 405B более чем в два раза больше gpt3 и использует в четыре раза большее контекстное окно.

Несмотря на то, что бенчмарк на основе Llama 3.1 405B был представлен только недавно, на него уже подано больше заявок, чем на предшественника на основе gpt3 в предыдущих раундах, отметил консорциум.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

MLCommons сообщил, что рабочая группа MLPerf Training регулярно добавляет новые рабочие нагрузки в набор тестов, чтобы гарантировать, что он отражает тенденции отрасли. Результаты бенчмарка Training 5.0 показывают заметный рост производительности для новых бенчмарков, что указывает на то, что отрасль отдаёт приоритет новым рабочим нагрузкам обучения, а не старым.

Тест Stable Diffusion показал увеличение скорости в 2,28 раза для восьмичиповых систем по сравнению с версией 4.1, вышедшей шесть месяцев назад, а тест Llama 2.0 70B LoRA увеличил скорость в 2,10 раза по сравнению с версией 4.1; оба превзошли исторические ожидания роста производительности вычислений с течением времени в соответствии с законом Мура. Более старые тесты в наборе показали более скромные улучшения производительности.

 Источник изображений: MLCommons

Источник изображений: MLCommons

На многоузловых 64-чиповых системах тест RetinaNet показал ускорение в 1,43 раза по сравнению с предыдущим раундом тестирования v3.1 (самым последним, включающим сопоставимые масштабные системы), в то время как тест Stable Diffusion показал резкое увеличение в 3,68 раза.

«Это признак надёжного цикла инноваций в технологиях и совместного проектирования: ИИ использует преимущества новых систем, но системы также развиваются для поддержки высокоприоритетных сценариев», — говорит Шрия Ришаб (Shriya Rishab), сопредседатель рабочей группы MLPerf Training.

В заявках на MLPerf Training 5.0 использовалось 12 уникальных чиповых, все в категории коммерчески доступных. Пять из них стали общедоступными с момента выхода последней версии набора тестов MLPerf Training:

  • AMD Instinct MI300X (192 Гбайт HBM3);
  • AMD Instinct MI325X (256 Гбайт HBM3e);
  • NVIDIA Blackwell GPU (GB200);
  • NVIDIA Blackwell GPU (B200-SXM, 180 Гбайт HBM3e);
  • TPU v6 Trillium.

Заявки также включали три новых семейства процессоров:

  • Процессор AMD EPYC 9005 (Turin);
  • Процессор Intel Xeon 6P (Granite Rapids);
  • Arm Neoverse V2 (в составе NVIDIA GB200)

Кроме того, количество представленных многоузловых систем увеличилось более чем в 1,8 раза по сравнению с версией бенчмарка 4.1. Хиуот Касса (Hiwot Kassa), сопредседатель рабочей группы MLPerf Training, отметил растущее число провайдеров облачных услуг, предлагающих доступ к крупномасштабным системам, что делает доступ к обучению LLM более демократичным.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Последние результаты MLPerf Training 5.0 от NVIDIA показывают, что её ускорители Blackwell GB200 демонстрируют рекордные результаты по времени обучения, демонстрируя, как стоечная конструкция «ИИ-фабрики» компании может быстрее, чем раньше, превращать «сырые» вычислительные мощности в развёртываемые модели, пишет ресурс HPCwire.

Раунд MLPerf Training v5.0 включает 201 результат от 20 организаций-участников: AMD, ASUS, Cisco, CoreWeave, Dell, GigaComputing, Google Cloud, HPE, IBM, Krai, Lambda, Lenovo, MangoBoost, Nebius, NVIDIA, Oracle, QCT, SCITIX, Supermicro и TinyCorp. «Мы бы особенно хотели поприветствовать впервые подавших заявку на участие в MLPerf Training AMD, IBM, MangoBoost, Nebius и SCITIX, — сказал Дэвид Кантер (David Kanter), руководитель MLPerf в MLCommons. — Я также хотел бы выделить первый набор заявок Lenovo на результаты тестов энергопотребления в этом раунде — энергоэффективность в системе обучения ИИ-систем становится всё более важной проблемой, требующей точного измерения».

NVIDIA представила результаты кластера на основе систем GB200 NVL72, объединивших 2496 ускорителей. Работая с облачными партнерами CoreWeave и IBM, компания сообщила о 90-% эффективности масштабирования при расширении с 512 до 2496 ускорителей. Это отличный результат, поскольку линейное масштабирование редко достигается при увеличении количества ускорителей за пределами нескольких сотен. Эффективность масштабирования в диапазоне от 70 до 80 % уже считается солидным результатом, особенно при увеличении количества ускорителей в пять раз, пишет HPCwire.

В семи рабочих нагрузках в MLPerf Training 5.0 ускорители Blackwell улучшили время сходимости «до 2,6x» при постоянном количестве ускорителей по сравнению с поколением Hopper (H100). Самый большой рост наблюдался при генерации изображений и предварительном обучении LLM, где количество параметров и нагрузка на память самые большие.

Хотя в бенчмарке проверялась скорость выполнения операций, NVIDIA подчеркнула, что более быстрое выполнение задач означает меньшее время аренды облачных инстансов и более скромные счета за электроэнергию для локальных развёртываний. Хотя компания не публиковала данные об энергоэффективности в этом бенчмарке, она позиционировала Blackwell как «более экономичное» решение на основе достигнутых показателей, предполагая, что усовершенствования дизайна тензорных ядер обеспечивают лучшую производительность на Ватт, чем у поколения Hopper.

Также HPCwire отметил, что NVIDIA была единственным поставщиком, представившим результаты бенчмарка предварительной подготовки LLM на основе Llama 3.1 405B, установив начальную точку отсчёта для обучения с 405 млрд параметров. Это важно, поскольку некоторые компании уже выходят за рамки 70–80 млрд параметров для передовых ИИ-моделей. Демонстрация проверенного рецепта работы с 405 млрд параметров даёт компаниям более чёткое представление о том, что потребуется для создания ИИ-моделей следующего поколения.

В ходе пресс-конференции Дэйв Сальватор (Dave Salvator), директор по ускоренным вычислительным продуктам в NVIDIA, ответил на распространенный вопрос: «Зачем фокусироваться на обучении, когда в отрасли в настоящее время все внимание сосредоточено на инференсе?». Он сообщил, что тонкая настройка (после предварительного обучения) остается ключевым условием для реальных LLM, особенно для предприятий, использующих собственные данные. Он обозначил обучение как «фазу инвестиций», которая приносит отдачу позже в развёртываниях с большим объёмом инференса.

Этот подход соответствует более общей концепции «ИИ-фабрики» компании, в рамках которой ускорителям даются данные и питание для обучения моделей. А затем производятся токены для использования в реальных приложениях. К ним относятся новые «токены рассуждений» (reasoning tokens), используемые в агентских ИИ-системах.

NVIDIA также повторно представила результаты по Hopper, чтобы подчеркнуть, что H100 остаётся «единственной архитектурой, кроме Blackwell», которая показала лидерские показатели по всему набору MLPerf Training, хотя и уступила Blackwell. Поскольку инстансы на H100 широко доступны у провайдеров облачных сервисов, компания, похоже, стремится заверить клиентов, что существующие развёртывания по-прежнему имеют смысл.

 Источник изображений: AMD

Источник изображений: AMD

AMD, со своей стороны, продемонстрировала прирост производительности поколения чипов. В тесте Llama2 70B LoRA она показала 30-% прирост производительности AMD Instinct MI325X по сравнению с предшественником MI300X. Основное различие между ними заключается в том, что MI325X оснащён почти на треть более быстрой памятью.

В самом популярном тесте, тонкой настройке LLM, AMD продемонстрировала, что её новейший ускоритель Instinct MI325X показывает результаты наравне с NVIDIA H200. Это говорит о том, что AMD отстает от NVIDIA на одно поколение, отметил ресурс IEEE Spectrum.

AMD впервые представила результаты MLPerf Training, хотя в предыдущие годы другие компании представляли результаты в этом тесте, используя ускорители AMD. В свою очередь, Google представила результаты лишь одного теста, задачи генерации изображений, с использованием Trillium TPU.

Тест MLPerf также включает тест на энергопотребление, измеряющий, сколько энергии уходит на выполнение каждой задачи обучения. В этом раунде лишь Lenovo включила измерение этого показателя в свою заявку, что сделало невозможным сравнение между компаниями. Для тонкой настройки LLM на двух ускорителях Blackwell требуется 6,11 ГДж или 1698 КВт·ч — примерно столько энергии уходит на обогрев небольшого дома зимой.

Постоянный URL: https://servernews.kz/1124073
06.06.2025 [18:46], Руслан Авдеев

AMD продолжает шоппинг: компания купила стартап Brium для борьбы с доминированием NVIDIA

В последние дни компания AMD активно занимается покупками компаний, так или иначе задействованных в разработке ИИ-технологий. Одним из последних событий стала покупка стартапа Brium, специализирующегося на инструментах разработки и оптимизации ИИ ПО, сообщает CRN. AMD, по-видимому, всерьёз обеспокоилась развитием программной экосистемы после того, как выяснилось, что именно ПО не даёт раскрыть весь потенциал ускорителей Instinct.

О покупке Brium, в состав которой входят «эксперты мирового класса в области компиляторов и программного обеспечения для ИИ», было объявлено в минувшую среду. Финансовые условия сделки пока не разглашаются. По словам представителя AMD, передовое ПО Brium укрепит возможности IT-гиганта «поставлять в высокой степени оптимизированные ИИ-решения», включающие ИИ-ускорители Instinct, которые играют для компании ключевую роль в соперничестве с NVIDIA. Дополнительная информация изложена в пресс-релизе AMD.

В AMD уверены, что разработки Brium в области компиляторных технологий, фреймворков для выполнения моделей и оптимизации ИИ-инференса позволят улучшить эффективность и гибкость ИИ-платформы нового владельца. Главное преимущество, которое AMD видит в Brium — способность стартапа оптимизировать весь стек инференса до того, как модель начинает обрабатываться аппаратным обеспечением. Это позволяет снизить зависимость от конкретных конфигураций оборудования и обеспечивает ускоренную и эффективную работу ИИ «из коробки».

В частности, команда Brium «немедленно» внесёт вклад в ключевые проекты вроде OpenAI Triton, WAVE DSL и SHARK/IREE, имеющие решающее значение для более быстрой и эффективной эксплуатации ИИ-моделей на ускорителях AMD Instinct. У технического директора Brium Квентина Коломбета (Quentin Colombet) десятилетний опыт разработки и оптимизации компиляторов для ускорителей в Google, Meta и Apple.

 Источник изображения: AMD

Источник изображения: AMD

Компания сосредоточится на внедрении новых форматов данных вроде MX FP4 и FP6, которые уменьшают объём вычислений и снижают энергопотребление, сохраняя приемлемую точность моделей. В результате разработчики могут добиться более высокой производительности ИИ-моделей, снижая затраты на оборудование и повышая энергоэффективность.

Покупка Brium также поможет ускорить создание open source инструментов. Это даст возможность AMD лучше адаптировать свои решения под специфические потребности клиентов из разных отраслей. Так, Brium успешно адаптировала Deep Graph Library (DGL) — фреймворк для работы с графовыми нейронными сетями (GNN) — под платформу AMD Instinct, что дало возможность эффективно запускать передовые ИИ-приложения в области здравоохранения. Такого рода компетенции повышают способность AMD предоставлять оптимальные решения для отраслей с высокой добавленной стоимостью и расширять охват рынка.

Brium — лишь одно из приобретений AMD за последние дни для усиления позиций в соперничестве с NVIDIA, доминирование которой на рынке ИИ позволило получить в прошлом году выручку, более чем вдвое превышавшую показатели AMD и Intel вместе взятых. В числе последних покупок — стартап Enosemi, работающий над решениями в сфере кремниевой фотоники, поставщик инфраструктуры ЦОД ZT Systems, а также софтверные стартапы Silo AI, Nod.ai и Mipsology. Кроме того, совсем недавно компания купила команду Untether AI, не став приобретать сам стартап.

Постоянный URL: https://servernews.kz/1124054
06.06.2025 [17:58], Руслан Авдеев

AMD купила команду разработчика ИИ-чипов Untether AI, но не саму компанию, которая тут же закрылась

Компания AMD объявила об очередной за несколько дней корпоративной покупке. Она наняла неназванное количество сотрудников Untether AI, разрабатывающей ИИ-чипы для энергоэффективного инференса в ЦОД и на периферии, сообщает Silicon Angle. Первым информацией о сделке поделился представитель рекрутинговой компании SBT Industries, специализирующейся на полупроводниковой сфере.

Позже в AMD подтвердили, что компания приобрела «талантливую команду инженеров по аппаратному и программному ИИ-обеспечению» у Untether AI. Новые сотрудники помогут оптимизировать разработку компиляторов и ядер ИИ-систем, а также улучшить проектирование чипсетов, их проверку и интеграцию.

Вероятно, сделку завершили в прошлом месяце, причём в команду не вошёл глава Untether Крис Уокер (Chris Walker), перешедший в стартап из Intel и возглавивший его в начале 2024 года. Судя по информации из соцсетей, Уокер покинул компанию в мае. Сделка довольно необычна, поскольку никаких активов компании не покупалось, но Untether AI уже объявила о закрытии бизнеса и поставок или поддержки чипов speedAI и ПО imAIgine Software Development Kit (SDK).

 Источник изображения: Untether AI

Источник изображения: Untether AI

Untether AI была основана 2018 году в Торонто (Канада). В июле 2021 года стартап привлёк $125 млн в раунде финансирования, возглавленном венчурным подразделением Intel Capital. Компания разрабатывала энергоэффективные чипы для инференса для периферийных решений, потребляющих мало энергии. В одной упаковке объединялись модули для вычислений и память. В октябре 2024 года начала продажи чипа speedAI240 Slim (развитие speedAI240). speedAI240 Slim, по данным компании, втрое энергоэффективнее аналогов в сегменте ЦОД.

Помимо Intel, Untether AI имела партнёрские отношения с Ampere Computing, Arm Holdings и NeuReality. Буквально в минувшем апреле Уокер сообщил журналистам, что компания отметила большой спрос на свои чипы для инференса со стороны покупателей, ищущих альтернативы продуктам NVIDIA с более высокой энергоёмкостью. Более того, в прошлом году компания договорилась с индийской Ola-Krutrim о совместной разработке ИИ-ускорителей не только для инференса, но и для тюнинга ИИ-моделей.

Покупка состоялась всего через два дня после объявления о приобретении малоизвестного стартапа Brium, специализировавшегося на инструментах разработки и оптимизации ИИ ПО. Вероятно, AMD заинтересована в использовании его опыта для оптимизации инференса на отличном от NVIDIA оборудовании. Сделка с Brium состоялась всего через шесть дней после того, как AMD объявила о покупке разработчика систем кремниевой фотоники Enosemi. Это поможет AMD нарастить компетенции в соответствующей сфере, поскольку всё больше клиентов пытаются объединять тысячи ускорителей для поддержки интенсивных ИИ-нагрузок.

Постоянный URL: https://servernews.kz/1124048
06.06.2025 [11:08], Руслан Авдеев

Endeavour предложила ЦОД натриевые батареи Tiamat

Владеющая оператором дата-центров Edged компания Endeavour предложила дата-центрам натриевые аккумуляторы взамен литиевых. На этой неделе она объявила о стратегическом партнёрстве с производителем АКБ Tiamat для поставки батарей для ИИ ЦОД и систем стабилизации энергосетей, сообщает пресс-служба Endeavour. В Endeavour утверждают, что технология Tiamat даёт возможность полностью заряжать и разряжать аккумуляторы более 60 раз в час, тогда как Li-Ion варианты обеспечивают лишь 1–3 подобных цикла.

Как заявляют в компании, такие показатели в сочетании с длительным сроком службы и высокой плотностью хранения энергии делают АКБ подходящими для работы с нестабильными ИИ-нагрузками без неконтролируемого перегрева аккумуляторов в процессе работы.

В батареях Tiamat используются уникальные химические процессы в сравнении с сопоставимыми натриевыми решениями. В течение последнего года они тестируются с реальными рабочими ИИ-нагрузками с сотнями тысяч циклов заряда/разряда. Партнёры планируют глобальное внедрение этих решений.

 Источник изображения: Tiamat

Источник изображения: Tiamat

Tiamat основана в 2017 году во Франции и её аккумуляторы, помимо прочего, будут использоваться в дата-центрах Edged, принадлежащей Endeavour. Поставки другим компаниям, в том числе гиперскейлерам, будут осуществляться при эксклюзивном посредничестве Endeavour. В Tiamat подчёркивают, что чрезвычайно довольны партнёрством. За последний год, как утверждают в компании, стало ясно, что такая технология АКБ — единственная, способная сегодня справиться со сложными требованиями, предъявленными инженерами Endeavour к уровню нагрузки и долговечности.

 Источник изображения: Tiamat

Источник изображения: Tiamat

Endeavour создана основателем Aligned Якобом Карнемарком (Jakob Carnemark). ЦОД-подразделение Edged имеет дата-центры, которые либо уже работают, либо находятся на стадии строительство в Бильбао, Мадриде и Барселоне (Испания), Лиссабоне (Португалия), а также в США (Миссури, Аризона, Техас, Джорджия, Огайо и Иллинойс). У Endeavour есть и другие перспективные разработки. Так, система безводного охлаждения ThermalWorks поддерживает до 70 кВт на стойку при воздушном охлаждении и до 200 кВт — при жидкостном.

Партнёры не одиноки в своём стремлении использовать натриевые аккумуляторы. Около года назад появилась информация, что стартап Unigrid намерен наладить выпуск недорогих натрий-ионных аккумуляторов для ЦОД.

Постоянный URL: https://servernews.kz/1124037
06.06.2025 [10:19], Руслан Авдеев

Castrol запустила сервис управления оборотом жидкостей для охлаждения дата-центров

Castrol представила сервис управления оборотом жидкостей для систсем жидкостного охлаждения (СЖО) дата-центров. Это должно помочь операторам ЦОД в переходе с воздушных систем на жидкостные — последние всё более востребованы при использовании высокоплотных серверных стоек, сообщает Datacenter Dynamics.

Принадлежащая BP компания Castrol заявляет, что новый сервис охватывает все четыре фазы жизненного цикла работы СЖО, включая запуск системы, текущее обслуживание, устранение неисправностей, утилизацию жидкостей. Предполагается, что это поможет преодолеть барьеры на пути внедрения СЖО в дата-центрах.

В Castrol отмечают, что операторы уже осознали преимущества жидкостного охлаждения, но им нужны гарантии долгосрочной сервисной поддержки. Тем временем Castrol десятилетиями осуществляет её в других сферах, например — в автоиндустрии. Теперь этот опыт будет использован и для обслуживания дата-центров. Новая услуга будет оказываться с помощью партнёрской сети Castrol с привлечением сторонних компаний. Цель — избавиться от «операционной и технической неопределённости», замедлившей внедрение жидкостных систем.

 Источник изображения: Castrol

Источник изображения: Castrol

Утверждается, что в СЖО охлаждающая жидкость является единственной «точкой отказа» и ухудшение условий эксплуатации снижает эффективность работы оборудования и может привести к его поломке. Тем временем «структурированный» подход Castrol обеспечивает поддержку на каждом этапе.

Ранее компания разработала линейку охлаждающих жидкостей для СЖО, включая ON Direct Liquid Cooling PG 25, представленную в декабре 2024 года. В том же году компания ввела в эксплуатацию модульный ЦОД в Оксфордшире (Oxfordshire) на площадке собственного исследовательского центра для тестирования и демонстрации собственных решений.

Активно занимаются разработкой технологий и решений для СЖО и другие компании из нефтегазовой и смежных отраслей: Shell, SK Enmove, ExxonMobil, Perstorp, Gulf Oil.

Постоянный URL: https://servernews.kz/1124032

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus