Материалы по тегу: суперкомпьютер

13.03.2025 [08:50], Руслан Авдеев

Cerebras развернёт царь-ускорители WSE-3 ещё в шести ЦОД во Франции, США и Канаде

Компания Cerebras начала установку более тысячи ИИ-систем CS-3 на базе гигантских ускорителей WSE-3 по всей Северной Америке и во Франции. Компания стремится зарекомендовать себя как поставщика одной из крупнейших и быстрейших облачных инференс-платформ, сообщает The Register. Кроме того, компания объявила о расширении сотрудничества с Hugging Face.

К концу 2025 года развернёт свои ускорители в дата-центрах в Техасе, Миннесоте, Оклахоме и Джорджии, а также в Канаде и во Франции. Cerebras будет целиком владеть площадками в Оклахома-Сити (Оклахома) и Монреале (Канада), а оставшиеся объекты будут эксплуатироваться в рамках соглашения с G42 из ОАЭ. Крупнейший в США новый кластер CS-3 разместится в Миннеаполисе (Миннесота), его оснастят 512 CS-3 с общим быстродействием 64 Эфлопс (FP16). Он заработает уже во II квартале 2025 года.

Cerebras давно сотрудничает с фондом G42, который активно спонсирует ИИ-стартап и является его якорным заказчиком — на G42 пришлось 83 % от всей выручки Cerebras за 2023 календарный год. Однако именно это сотрудничество привело к тому, что Cerebras вынужденно отложила IPO — власти США опасаются, что Китай получит доступ к ИИ-суперчипам Cerebras при посредничестве ОАЭ. По слухам, G42 заключила сделку с США, отказавшись от работы с Китаем в обмен на инвестиции.

 Источник изображения: SNL

Источник изображения: SNL

В ближайшее время Cerebras также намерена расширить API-доступ к своим ускорителям для разработчиков, договорившись с репозиторием моделей Hugging Face. Также Cerebras выиграла контракты с Mistral AI и Perplexity. Недавно объявлено о намерении аналитической платформы AlphaSense заменить трёх поставщиков моделей с закрытым кодом на модель open source, работающую на CS-3. Летом прошлого года было объявлено о партнёрстве с Dell.

Постоянный URL: http://servernews.kz/1119595
12.03.2025 [20:37], Владимир Мироненко

Евросоюз потратит €240 млн на создание трёх RISC-V чиплетов для суперкомпьютеров в рамках проекта DARE

Digital Autonomy with RISC-V in Europe (DARE), крупнейший проект по разработке чипов из когда-либо финансируемых Европейским союзом, созданный с целью укрепления технологического суверенитета Европы в области высокопроизводительных вычислений (HPC) и искусственного интеллекта (ИИ), официально начал первый этап DARE SGA1, на реализацию которого выделено €240 млн ($262 млн), сообщается на сайте проекта. Европа и Китай делают ставку на RISC-V.

Финансирование инициативы обеспечат 38 участников, включая ИТ-компании, исследовательские институты и университеты по всей Европе. Проект поддерживается EuroHPC JU и координируется Барселонским суперкомпьютерным центром (BSC-CNS). Последний имеет богатый опыт разработки чипов RISC-V и суперкомпьютерных систем. Половина инвестиций в проект DARE будет предоставлена Европейской комиссией через EuroHPC, а другая половина поступит напрямую от европейских партнёров, включая €34 млн от Министерства науки, инноваций и университетов Испании.

Рассчитанный на три года DARE SGA1 является первым этапом шестилетней инициативы DARE. Цель — создание полноценного независимого европейского суперкомпьютерного программно-аппаратного стека для HPC и ИИ, включая чипы, системы на основе чиплетов и ПО. Инициатива направлена на удовлетворение стратегической потребности Европы в цифровом суверенитете и получения полного контроля над критической вычислительной инфраструктурой.

 Источник изображения: DARE

Источник изображения: DARE

Проектом DARE SGA1 предусмотрена разработка трёх чиплетов на основе архитектуры RISC-V, каждый из которых будет выполнять критически важную функцию в вычислениях HPC и ИИ:

  • Векторный ускоритель (VEC) для HPC-нагрузок и новых конвергентных приложений HPC-AI. Возглавит разработку базирующийся в Барселоне разработчик чипов Openchip.
  • ИИ-блок (AIPU), разрабатываемый для ускорения ИИ-инференса. Его создание поручено голландскому стартапу Axelera AI, который займётся созданием ИИ-чипа с использованием in-memory вычислений.
  • Универсальный процессор (GPP), оптимизированный для рабочих нагрузок HPC в европейских суперкомпьютерах. Руководство разработкой поручено немецкой компании Codasip. Этот процессор будет настраиваемым и подстраиваемым под различные приложения класса HPC, включая научные вычисления, ИИ и обработку Big Data.

В дополнение к указанным компаниям в качестве технических лидеров названы imec и Юлихский исследовательский центр (JÜLICH Supercomputing centre, JSC), которые будут продвигать ключевые инновации в рамках проекта. Помимо координации усилий, BSC также возглавит разработку планов и будет участвовать в разработке программных и аппаратных решений. Изготавливаться чиплеты будут по технологии CMOS с использованием современных техпроцессов.

Axelera получит на разработку до €61 млн при условии выполнения различных задач в течение следующих трёх лет, рассказал ресурсу EE Times генеральный директор Axelera Фабрицио дель Маффео (Fabrizio del Maffeo). Хотя нынешний чип Axelera Metis AIPU предназначен для периферийных систем, дель Маффео сказал, что разрабатываемый в рамках DARE продукт на основе чиплетов не несёт кардинальные изменения, речь скорее о масштабировании.

Codasip в прошлом году анонсировала 64-бит чип X730 на базе RISC-V с архитектурной защитой CHERI. По данным The Next Platform, за последнее десятилетие компания привлекла $34,6 млн общего финансирования, включая средства в рамках различных инициатив ЕС, а также посевной раунд в размере $2,5 млн в 2016 году и раунд A в размере $10 млн в 2018 году.

Постоянный URL: http://servernews.kz/1119614
10.03.2025 [12:03], Сергей Карасёв

Lenovo создаст крупнейший в Индии ИИ-суперкомпьютер, который получит отечественные чипы Krutrim

Индийская компания Krutrim, подразделение Ola Group, специализирующееся на технологиях ИИ, заключила партнёрское соглашение с Lenovo с целью разработки крупнейшего в Индии суперкомпьютера. Как сообщает Datacenter Dynamics, система будет использоваться в том числе для разработки большой языковой модели (LLM) Krutrim 3 с 700 млрд параметров.

В ходе конференции Lenovo TechWorld India 2025 Навенду Агарвал (Navendu Agarwal), директор по информационным технологиям Ola, сообщил, что в составе нового НРС-комплекса планируется использовать фирменные чипы Krutrim, а также облачные сервисы этой компании. В дальнейшие подробности относительно технических характеристик машины Агарвал вдаваться не стал.

В августе прошлого года Krutrim анонсировала чипы собственной разработки для ИИ-приложений. Это изделие Bodhi 1 для инференса и работы с LLM, процессор Sarv 1 для облачных платформ и дата-центров, поддерживающих ИИ-нагрузки, а также решение Ojas для выполнения задач на периферии. Таким образом, в составе проектируемого суперкомпьютера могут быть задействованы чипы Bodhi 1 и Sarv 1. Агарвал отмечает, что в 2028 году ожидается выход процессора Bodhi 2, который, по его словам, сможет использоваться для работы с LLM, насчитывающими до 10 трлн параметров.

 Источник изображения: Lenovo

Источник изображения: Lenovo

Вместе с тем Krutrim сотрудничает с Arm и Untether AI с целью разработки решений нового поколения для ЦОД, которые будут применяться для настройки и инференса ИИ-моделей Krutrim. В свою очередь, Lenovo осенью 2024 года объявила о намерении организовать выпуск ИИ-серверов на индийском заводе в Пондичерри (Puducherry). Кроме того, Lenovo планирует сформировать передовую научно-исследовательскую лабораторию в Бангалоре (столица штата Карнатака на юге Индии). В целом, Lenovo готова содействовать правительственной программе по трансформации Индии в крупный центр технологических инноваций и производства.

Постоянный URL: http://servernews.kz/1119464
19.02.2025 [09:28], Руслан Авдеев

1,5 ГВт и 1,2 млн ускорителей: Sesterce потратит €52 млрд на ИИ-инфраструктуру во Франции

Французский облачный провайдер Sesterce инвестирует €450 млн ($471,85 млн) в создание ИИ ЦОД во французском Валансе (Valençay). Дата-центр разместится в бизнес-парке Rovaltain в агломерации Valence Romans Agglo. Ожидается, что проект будет использовать 40 тыс. ускорителей для обучения и эксплуатации ИИ, сообщает пресс-служба компании.

В новом ЦОД будет применяться замкнутая система водяного охлаждения, благодаря которой выделяемое оборудованием тепло можно будет использовать для отопления. Работы над проектом начнутся в сентябре 2025 года и завершатся до конца 2026 года. Размеры объекта и его мощность пока не раскрываются.

Отмечается, что €450 млн — это инвестиции лишь первого этапа, а общий бюджет проекта составит €1,8 млрд ($1,89 млрд) с учётом расходов на оборудование. Новый дата-центр — часть более масштабного €109-млрд плана Франции по достижению лидерства на рынке ИИ. Кроме того, страна готовится выделить для развития ИИ 1 ГВт от атомных станций.

 Источник изображения: Sesterce

Источник изображения: Sesterce

Всего Sesterce намерена потратить €52 млрд развернуть 1,5 ГВт мощностей и к 2030 году задействовать 1,2 млн ускорителей. Помимо развития нового ЦОД в Валансе, Sesterce намерена добавить 600 МВт двум дата-центрам в Гранд-Эсте (Grand Est) с 500 тыс. ускорителей к 2028 году, а к 2030 довести мощность до 1,2 ГВт и разместить более 1 млн ускорителей. Кроме того, компания намерена построить на юге Франции суперкомпьютер на 250 МВт с 200 тыс. ускорителей.

Свой первый ЦОД компания открыла в 2018 году, а в октябре 2024 года запустила HPC-кластер в Париже. Он построен на основе серверов Dell PowerEdge XE9680, оснащённых ускорителями NVIDIA H200. В декабре того же года компаняи анонсировала строительство кластера на базе H100 в ЦОД Digital Realty в Марселе. Сейчас компания управляет 1 ГВт мощностей и использует более 100 тыс. ИИ-ускорителей, отмечает DataCenter Dynamics.

Постоянный URL: http://servernews.kz/1118460
11.02.2025 [16:24], Владимир Мироненко

ИИ ЦОД за 20 недель: G42 и DataOne построят крупнейший во Франции суперкомьютер на чипах AMD Instinct

Холдинг G42 из Абу-Даби (ОАЭ) объявил о стратегических инвестициях во Франции в партнёрстве с недавно образованной DataOne, которая сама себя называет первым в Европе оператором гига-ЦОД для ИИ. Вместе компании в кратчайшие сроки построят в Гренобле ИИ ЦОД, оснащённый ускорителями AMD Instinct.

Ожидается, что объект будет полностью введён в эксплуатацию к середине 2025 года. Вычислительные возможности нового ЦОД позволят французским компаниям и учёным разрабатывать передовые модели ИИ, агентов и приложения, а также проводить различные исследования. Реализацией проекта будет заниматься компания Core42, дочернее предприятие G42, совместно с DataOne. По словам главы DataOne Шарля-Антуана Бейни (Charles-Antoine Beyney), на развёртывание крупнейшего ИИ-суперкомпьютера в Европе потребуется всего 20 недель. Для сравнения: кластер xAI Colossus был построен за 122 дня.

Как заявила Лиза Су (Lisa Su), председатель и генеральный директор AMD, стратегическое сотрудничество с G42 поможет активизировать французскую экосистему ИИ, предоставив вычислительную мощность, необходимую для поддержки местных стартапов и новаторов, занимающихся передовыми разработками, которые укрепляют французскую экономику. «Работа с G42 является ещё одним примером нашей приверженности объединению открытых экосистем с ведущими в отрасли технологиями ИИ AMD, что обеспечивает возможность государственным учреждениям и частным предприятиям использовать весь потенциал ИИ», — подчеркнула Лиза Су.

 Источник изображения: AMD

Источник изображения: AMD

Инвестиции G42 входят в пакет частных инвестиций в ИИ-инфраструктуру страны на €109 млрд, анонсированный президентом Франции Эммануэле Макроном (Emmanuel Macron) в качестве ответа на представленный в США проект Stargate. Ранее было объявлено о планах ОАЭ вложить при участии фонда MGX €30–50 млрд в проект по созданию кампуса ИИ ЦОД во Франции.

В G42 называют инвестиции в ИИ одним из главных направлений своей деятельности. Деятельность холдинга получила поддержку Microsoft, инвестировавшей в него $1,5 млрд. В прошлом году G42 договорился с Cerebras о строительстве в Техасе ИИ-суперкомпьютера со 173 млн ядер.

Постоянный URL: http://servernews.kz/1118074
11.02.2025 [13:47], Руслан Авдеев

Tesla запустила суперкомпьютер Cortex с 50 тыс. ускорителей NVIDIA H100, а общие затраты компании на ИИ уже превысили $5 млрд

Компания Tesla завершила ввод в эксплуатацию ИИ-кластера из 50 тыс. ИИ-ускорителей NVIDIA H100 в IV квартале прошлого года. В презентации для акционеров отмечалось, что кластер Cortex заработал на принадлежащем Tesla объекте Gigafactory в Остине (Техас), сообщает Datacenter Dynamics.

Информация впервые появилась в отчёте компании за IV квартал и 2024 финансовый год. Новый кластер не имеет отношения к суперкомпьютеру Dojo, предназначенному для технологий автономного вождения FSD, имеющего собственную архитектуру и оснащенного кастомными чипами D1. При этом в презентации, посвящённой отчёту, Dojo не упоминается вообще.

Хотя компания не уточняет, когда именно в IV квартале началось развёртывание системы, на конференции по финансовым вопросам в октябре 2024 года представитель Tesla заявил, что компания находится «на пути к развёртыванию 50 тыс. ускорителей в Техасе к концу текущего месяца». По имеющимся данным, проект реализован с опозданием, поскольку Илон Маск уволил руководителя строительством ещё в апреле, а также приказал передать xAI 12 тыс. ускорителей H100, изначально предназначавшихся Tesla.

 Источник изображения: Tesla

Источник изображения: Tesla

В презентации сообщается, что именно Cortex уже помог в создании «автопилота» FSD V13 (Supervised). Новая версия повысила безопасность и комфорт вождения благодаря увеличению объёма данных в 4,2 раза, повышению разрешения видеопотока, а также другим усовершенствованиям. Заодно компания сообщила о продолжении работ над программной и аппаратной частями робота Optimus, в т.ч. рук нового поколения и механизмов передвижения. Также осуществлялось обучение выполнению дополнительных задач перед началом пилотного производства в 2025 году.

Что касается доходов компании в IV квартале, в конце января Илон Маск (Elon Musk) сообщил, что бизнес продолжает инвестировать в обучающую инфраструктуру за пределами штаб-квартиры в Техасе. В конце января сообщалось, что Tesla наращивает вычислительные мощности для обучения Optimus. По словам миллиардера, на обучение Optimus необходимо потратить, как минимум, в 10 раз больше ресурсов в сравнении с полноценным обучением систем автомобиля.

Капитальные затраты Tesla в 2024 году составили $10 млрд, столько же компания намерена потратить в ближайшие два года, хотя большая часть затрат придётся на инфраструктуру для электромобилей. В отчёте о доходах за IV квартал упоминалось, что общие капитальные затраты компании, связанные с ИИ, включая инфраструктуру, превысили $5 млрд.

Постоянный URL: http://servernews.kz/1118071
31.01.2025 [20:57], Руслан Авдеев

ИИ-модели OpenAI и суперкомпьютер Venado встанут на защиту национальной безопасности США

Лос-Аламосская национальная лаборатория США (LANL) заключила соглашение с OpenAI об использовании моделей серии o на ИИ-суперкомпьютере Venado. Система, оснащённая суперускорителями NVIDIA GH200, среди прочего будет использоваться для исследований в сфере национальной безопасности.

Новые модели способны решать всё более сложные научные задачи, в том числе прикладные. В лаборатории подчеркнули, что угрозы для страны становятся всё более сложными и актуальными, поэтому нужны новые подходы для обеспечения её безопасности. Модели OpenAI, в частности вариант o1, позволят более эффективно справляться с задачами и помогут решить некоторые насущные проблемы страны.

Venado включат в защищённую секретную сеть, где его ресурсами смогут воспользоваться исследователи из Лос-Аламоса, Ливерморской национальной лаборатории (LLNL) или Сандийских национальных лабораторий (SNL). Сотрудничество этих структур Министерства энергетики США (DoE) с IT-компаниями обеспечит новые возможности для научных исследований. Сообщается, что почти во всех проектах лаборатории ИИ уже используется в том или ином качестве.

 Источник изображения: Markus Winkler/unsplash.com

Источник изображения: Markus Winkler/unsplash.com

Ранее LANL сотрудничала с OpenAI над повышением безопасности ИИ и оценкой «способности к рассуждению» модели o1. Теперь модели OpenAI регулярно используются национальными лабораториями в энергетических проектах, разработке новых материалов и создании квантовых алгоритмов. Использование моделей в секретной сети только расширит их возможности и позволит вносить более глубокий вклад в выполнение разных задач.

Новые ИИ-модели, по словам LANL, позволят США пересмотреть сами основы научных знаний и достигнуть нового уровня технического прогресса. С их использованием можно найти новые способы лечения и профилактики заболеваний, добиться лидерства в энергетической сфере благодаря раскрытию полного потенциала природных ресурсов и преобразовать энергетическую инфраструктуру страны, лучше выявлять природные и антропогенные угрозы, от биологических до кибернетических или угроз энергосистеме — ещё до их реального возникновения.

 Источник изображения: LANL

Источник изображения: LANL

Также известно о сотрудничестве LANL и OpenAI для оценки возможностей ИИ в биологических исследованиях. Так, по данным The Register, оценивались возможности ИИ для создания биологического оружия. Впрочем, нашлось им и более мирное применение — оценка снижении угрозы ядерной войны и ядерных угроз вообще.

Это не единственный из недавних примеров сотрудничества OpenAI с американским правительством. Пару дней назад компания заявила о премьере бота ChatGPT Gov — варианта корпоративной версии ChatGPT Enterprise. Предварительные испытания уже прошли в нескольких организациях для обработки «непубличных конфиденциальных данных».

Постоянный URL: http://servernews.kz/1117556
30.01.2025 [08:58], Владимир Мироненко

Суперкомпьютер Aurora стал доступен исследователям со всего мира

Аргоннская национальная лаборатория (ANL) Министерства энергетики США объявила о доступности суперкомпьютера Aurora экзафлопсного класса для исследователей по всему миру. Как указано в пресс-релизе, благодаря широким возможностям моделирования, ИИ и анализа данных, Aurora будет способствовать прорывам в целом ряде областей, включая проектирование самолётов, космологию, разработку лекарств и исследования в сфере ядерной энергетики.

Майкл Папка (Michael Papka), директор Argonne Leadership Computing Facility (ALCF), вычислительного центра Управления науки Министерства энергетики США, отметил, что уже первые проекты с использованием Aurora продемонстрировали его огромным потенциал. «С нетерпением ждём, как более широкое научное сообщество будет использовать систему для преобразования своих исследований», — заявил он.

Aurora уже зарекомендовала себя как один мировых лидеров по производительности ИИ, заняв первое место в бенчмарке HPL-MxP в ноябре 2024 года, отметила ANL. Возможности машины для выполнения ИИ-задач используются учёными для открытия новых материалов для аккумуляторов, разработки новых лекарств и ускорения исследований в области термоядерной энергии. Перед его развёртыванием команда под руководством ANL продемонстрировала потенциал Aurora, используя его для обучения моделей ИИ для моделирования белков.

 Источник изображения: ANL

Источник изображения: ANL

В числе первых проектов, реализуемых с помощь Aurora, — разработка высокоточных моделей сложных систем, таких как кровеносная система человека, ядерные реакторы и сверхновые звезды. Кроме того, способность суперкомпьютера к обработке огромных наборов данных имеет решающее значение для анализа растущих потоков данных из крупных исследовательских установок, таких как Усовершенствованный источник фотонов (APS) Аргоннской национальной лаборатории, научные объекты Управления науки Министерства энергетики США (DoE) и Большой адронный коллайдер Европейской организации ядерных исследований (CERN).

Чтобы гарантировать готовность Aurora к использованию для научных исследования с первого дня запуска, при его создании применили так называемое совместное проектирование. Используя этот подход, команда Aurora разработала в тандеме аппаратное и программное обеспечение для оптимизации производительности и удобства использования. Это потребовало многолетнего сотрудничества между ALCF, Intel, HPE и исследователями по всей стране, участвующими в проекте Exascale Computing Project (ECP) Министерства энергетики США и программе Aurora Early Science Program (ESP) центра.

Пока велись работы по монтажу Aurora, команды ECP и ESP запускали приложения для стресс-тестирования оборудования, одновременно оптимизируя свой код для максимально эффективной работы в системе. В результате десятки научных приложений, а также широкий спектр ПО и инструментов разработки были готовы ещё до того, как Aurora ввели в строй, говорится в пресс-релизе.

Постоянный URL: http://servernews.kz/1117467
19.01.2025 [22:43], Сергей Карасёв

Германия запустила «переходный» 48-Пфлопс суперкомпьютер Hunter на базе AMD Instinct MI300A

Центр высокопроизводительных вычислений HLRS при Штутгартском университете в Германии объявил о вводе в эксплуатацию НРС-системы Hunter. Этот суперкомпьютер планируется использовать для решения широко спектра задач в области инженерии, моделирования погоды и климата, биомедицинских исследований, материаловедения и пр. Кроме того, комплекс будет применяться для крупномасштабного моделирования, ИИ-приложений и анализа данных.

О создании Hunter сообщалось в конце 2023 года: соглашение на строительство системы стоимостью примерно €15 млн было заключено с HPE. Проект финансируется Федеральным министерством образования и исследований Германии и Министерством науки, исследований и искусств Баден-Вюртемберга.

Hunter базируется на той же архитектуре, что El Capitan — самый мощный в мире суперкомпьютер. Задействована платформа Cray EX4000, а каждый из узлов оснащён четырьмя адаптерами HPE Slingshot. Суперкомпьютер использует комбинацию из APU Instinct MI300A и процессоров EPYC Genoa. Как отмечает The Register, в общей сложности система объединяет 188 узлов с жидкостным охлаждением и насчитывает суммарно 752 APU и 512 чипов Epyc с 32 ядрами. Применена СХД HPE Cray Supercomputing Storage Systems E2000, специально разработанная для суперкомпьютеров HPE Cray.

 Источник изображения: HLRS

Источник изображения: HLRS

HLRS оценивает пиковую теоретическую FP64-производительность Hunter в 48,1 Пфлопс на операциях двойной точности, что практически вдвое выше, чем у предшественника Hawk. В режимах BF16 и FP8 быстродействие, как ожидается, будет варьироваться от 736 Пфлопс до 1,47 Эфлопс. При этом Hunter потребляет на 80% меньше энергии, нежели Hawk.

 Источник изображения: Штутгартский университет

Источник изображения: Штутгартский университет

Отмечается, что Hunter задуман как переходная система, которая подготовит почву для суперкомпьютера HLRS следующего поколения под названием Herder. Ввести этот комплекс в эксплуатацию планируется в 2027 году. Предполагается, что он обеспечит производительность «в несколько сотен петафлопс».

Постоянный URL: http://servernews.kz/1116966
18.01.2025 [22:31], Владимир Мироненко

CoreWeave поставит IBM ИИ-суперкомпьютер на базе NVIDIA GB200 NVL72 для обучения моделей Granite

CoreWeave и IBM заключили соглашение о сотрудничестве, в рамках которого стартап поставит IBM один из первых своих ИИ-суперкомпьютеров на базе NVIDIA GB200 NVL72 с интерконнектом Quantum-2 InfiniBand. В качестве хранилища будет использоваться высокопроизводительная All-Flash СХД IBM Storage Scale System. IBM будет использовать облачную платформу CoreWeave для обучения семейства больших языковых моделей (LLM) Granite.

 Источник изображения: CoreWeave

Источник изображения: CoreWeave

Сообщается, что облачная платформа CoreWeave специально создана для обеспечения ведущей в отрасли производительности, надёжности и отказоустойчивости с безопасностью корпоративного уровня. Фирменный набор ПО и облачные сервисы предоставляют инструменты, необходимые для управления самой сложной и масштабной ИИ-инфраструктурой. В рамках соглашения о сотрудничестве клиенты CoreWeave получат доступ к платформе IBM Storage.

По словам вице-президента по ИИ в IBM Research, платформа CoreWeave позволит дополнить возможности IBM при разработке передовых, производительных и экономичных моделей для поддержки корпоративных приложений и ИИ-агентов. В свою очередь, IBM Storage Scale System расширяет возможности CoreWeave. «В рамках сотрудничества мы будем использовать этот суперкомпьютер для продвижения открытых технологий, таких как Kubernetes, которые будут поддерживать вычисления ИИ в гибридной облачной среде», — добавил представитель IBM.

Вероятно, IBM не хватает собственных вычислительных ресурсов — в ноябре появилась информация о том, что компания готова арендовать у AWS ИИ-ускорители за почти полмиллиарда долларов.

Постоянный URL: http://servernews.kz/1116957
Система Orphus