Материалы по тегу: ibm

20.11.2024 [17:16], Руслан Авдеев

AWS предоставит IBM доступ к ИИ-ускорителям на $475 миллионов

Гиперскейлер Amazon Web Services (AWS) близок к заключению сделки с компанией IBM на сумму $475 млн. По данным Business Insider, компания готовится предоставить компании IBM доступ к своим облачным ИИ-сервисам.

Компании ведут переговоры о пятилетнем использовании IBM ИИ-ускорителей Amazon. В частности, IBM планирует задействовать инстансы AWS EC2, работающие на чипах NVIDIA, что подтверждается одним из внутренних документов Amazon.

 Источник изображения: AWS

Источник изображения: AWS

По некоторым данным, сотрудничество уже началось — IBM начала обучать отдельные модели на указанных серверах с использованием платформы AWS SageMaker. Однако переговоры ещё продолжаются, и подписание окончательного соглашения пока не гарантировано.

Примечательно, что IBM имеет собственный облачный продукт и предоставляет доступ к ускорителям в облаке. Однако, по оценкам экспертов, её доля на мировом облачном рынке не превышает 10 %.

Ранее, в 2024 году, IBM анонсировала увеличение использования сервисов AWS для своей платформы Watson AI. Компании намерены интегрировать продукт IBM watsonx.governance с платформой Amazon SageMaker, чтобы помочь клиентам эффективно управлять рисками, связанными с ИИ-моделями, и упростить их использование.

Amazon активно продвигает чипы собственной разработки — Inferentia и Trainium, а ранее в этом месяце пообещала предоставить «кредиты» исследователям в сфере ИИ на сумму $110 млн для доступа к свои чипам в рамках программы Build on Trainium.

Пока неизвестно, намерена ли IBM применять полупроводники AWS или отдаст предпочтение более популярным решениям, таким как продукты NVIDIA.

Постоянный URL: http://servernews.kz/1114291
20.11.2024 [13:04], Руслан Авдеев

IBM и AMD расширяют сотрудничество: Instinct MI300X появится в облаке IBM Cloud в формате «ускоритель как услуга»

Компания IBM объявила о расширении сотрудничества с AMD для предоставления ускорителей Instinct MI300X в формате «ускорители как услуга» (Accelerators-as-a-Service). По данным Storage Review, новое решение расширяет возможности и энергоэффективность генеративных ИИ-моделей и HPC-приложений, что позволяет операторам сервиса справиться со спросом на масштабируемые ИИ-решения.

Ускорители AMD Instinct MI300X интегрируются в экосистему IBM, включая платформу IBM watsonx и Red Hat Enterprise Linux для инференса. Ускорители станут дополнением существующего портфолио IBM Cloud, уже включающего Intel Gaudi 3 и NVIDIA H100 для ИИ- и HPC-нагрузок.

Ускоритель AMD Instinct MI300X оснащён 192 Гбайт высокопроизводительной памяти HBM3. И относительно малое количество ускорителей способно обеспечить больших ИИ-моделей, что позволяет снизить затраты с сохранением производительности и масштабируемости.

 Источник изображения: AMD

Источник изображения: AMD

Предлагая ускорители как услугу на виртуальных серверах IBM Cloud для частных виртуальных облаков (VPC), а также посредством контейнеризированных решений вроде IBM Cloud Kubernetes Service и IBM Red Hat OpenShift, компания IBM намерена обеспечить клиентов безопасной высокопроизводительной средой для рабочих ИИ-нагрузок. Подобная гибкость позволяет масштабировать ИИ-проекты, сохраняя высокий уровень безопасности и соответствие нормативным требованиям — это особенно важно для клиентов из жёстко регулируемых отраслей.

Для решения задач ИИ-инференса IBM намерена интегрировать платформу watsonx и ускорители MI300X, которые также поддерживают платформы Red Hat Enterprise Linux AI и Red Hat OpenShift AI для выполнения генеративных ИИ-задач, включая работу с большими языковыми моделями типа Granite и инструментами настройки вроде InstructLab. Такой подход обеспечит гибкое развёртывание и масштабирование моделей в гибридных облачных средах.

По словам представителя AMD, ускорители Instinct совместно с ПО AMD ROCm обеспечивают гибкую экосистемную поддержку для платформ, вроде IBM watsonx AI и Red Hat OpenShift AI, позволяя работать с генеративным ИИ и масштабировать ИИ-инференс без ущерба для эффективности и цены.

AMD Instinct MI300X с облаке IBM Cloud станут доступны пользователям уже в первой половине 2025 года, расширяя портфель возможностей IBM для ИИ и HPC. Инициатива открывает новые возможности для компаний и структур, стремящихся использовать искусственный интеллект и HPC-вычисления на высоком уровне.

Постоянный URL: http://servernews.kz/1114305
27.10.2024 [13:15], Владимир Мироненко

IBM разочаровала инвесторов слабой выручкой — мейнфреймы z16 завершают цикл, зато Red Hat показала рост

IBM сообщила финансовые результаты III квартала 2024 года, завершившегося 30 сентября. После объявления результатов акции компании упали с $233 до $216 за шт., после чего отыграли до $255, поскольку выручка оказалась ниже ожиданий Уолл-стрит.

Выручка IBM составила $14,97 млрд, что на 1,5 % больше результата аналогичного квартала годом ранее, но ниже консенсус-прогноза аналитиков, опрошенных LSEG, равного $15,07 млрд. При этом скорректированная прибыль на акцию (Non-GAAP) оказалась немного выше прогноза аналитиков $2,30 против $2,23. По GAAP у IBM были чистые убытки $330 млн (36 центов на акцию) по сравнению с чистой прибылью в $1,70 млрд ($1,84 на акцию) в аналогичном квартале годом ранее. Убытки образовались из-за единовременного платежа по пенсионному расчету в рамках соглашения со страховой компанией Prudential.

 Источник изображений: IBM

Источник изображений: IBM

ПО принесло IBM $6,52 млрд выручки, превысив прошлогодний результат на 9,7 %, а также консенсус-прогноз аналитиков, опрошенных StreetAccount, равный $6,37 млрд. Выручка Red Hat выросла год к году на 14 %, тогда как во II квартале рост составил 7 %. Джим Кавано (Jim Kavanaugh), финансовый директор IBM, отметил в ходе телефонной конференции с аналитиками, что это был самый успешный квартал по подпискам с момента приобретения Red Hat в 2019 году, а также то, что бизнес Red Hat удвоился с момента приобретения.

Выручка подразделения по автоматизации увеличилась на 13 %, подразделения по обработке данных и ИИ — на 5 %. Валовая прибыль от продаж ПО составила 83 %, что выше, чем у других сегментов. Также отмечено, что доля выручки от ПО в общем объёме выручки составила 45 %. Генеральный директор Арвинд Кришна сообщил, что в августе была первая годовщина с момента приобретения Apptio, которая достигла «сильной синергии с нашими возможностями автоматизации и более широким портфелем программного обеспечения». Он добавил, что ожидаемое приобретение HashiCorp укрепит позиции IBM в сфере автоматизации инфраструктуры.

Хотя выручка подразделения по обработке данных и ИИ выросла на 5 %, Кришна заявил, что бизнес IBM в области генеративного ИИ теперь составляет около $3 млрд в заказах, что больше, чем $2 млрд в последнем квартале. Старший аналитик Forrester Research Inc. Дарио Маисто (Dario Maisto) выразил мнение, что IBM хорошо продвигается в области ИИ, отметив её решение сделать открытыми ИИ-модели Granite Foundation. До этого IBM и NASA сделали открытой базовую ИИ-модели для анализа спутниковых данных и выложили её на Hugging Face.

Самым большим разочарованием, как пишет ресурс SiliconANGLE, стал консалтинговый бизнес IBM, который остаётся на прежнем уровне из года в год, отражая то, что Кавано назвал «динамичной рыночной средой», когда предприятия тратят деньги с большой осторожностью. Консалтинговое подразделение принесло компании $5,2 млрд (снижение на 0,5 %).

Инфраструктурное подразделение получило $3,65 млрд выручки (снижение на 7,0 %). При этом продажи в сегменте мейнфреймов IBM z упали на 19 %. Мейнфреймы z16 были выпущены в 2022 году, а это означает, что это поколение доступно уже 10-й квартал и его цикл подходит к концу. Арвинд Кришна отметил, что поколение z16 превзошло своих предшественников, и что ситуация улучшится, когда дебютирует поколение z17.

Что касается прогноза, то в текущем квартале IBM ожидает рост выручки на уровне III квартала, драйвером которого будет ПО. Несмотря на нынешнее падение акций IBM, их рост с начала года составил 35 %.

Постоянный URL: http://servernews.kz/1113084
14.10.2024 [14:58], Руслан Авдеев

В Брукхейвенской национальной лаборатории накопилось уже более 300 Пбайт физических данных — это больше, чем вся письменная история человечества

Центр научных данных и вычислений (SDCC) Брукхейвенской национальной лаборатории (BNL) Министерства энергетики США (DoE) похвастался, что в его хранилищах находится уже свыше 300 Пбайт информации. Как сообщает Datacenter Dynamics, речь идёт о третьем по величине хранилище научных данных в Соединённых Штатах и крупнейшем в США архиве ленточных накопителей.

Хранящиеся данные связаны с экспериментами в области ядерной физики и физики элементарных частиц. В пресс-релизе Брукхейвенской лаборатории руководство SDCC заявляет, что в архиве хранится вшестеро больше данных, чем составила бы вся письменная история человечества, начиная с источников на санскрите (50 Пбайт). В частности, в хранилище находятся данные, полученные в экспериментах на Релятивистском коллайдере тяжелых ионов (RHIC) Министерства энергетики США, который с 2000 года работает в Брукхейвенской лаборатории, и данные эксперимента ATLAS на Большом адронном коллайдере (БАК).

 Источник изображения: Roger Stoutenburgh / Brookhaven National Laboratory

Источник изображения: Roger Stoutenburgh / Brookhaven National Laboratory

Вся информация доступна онлайн и по запросу. Сведения хранятся в высокотехнологичной роботизированной ленточной библиотеке. В лаборатории уже разработано собственное ПО и веб-сайт для мониторинга передачи данных, структура также сотрудничает с другими лабораториями Министерства энергетики и IBM над развитием системы управления информацией — High-Performance Storage System (HPSS). Последняя гарантирует, что разные системы хранения данных, от лент до дисков, могут эффективно использоваться в различных комбинациях. Также разработано ПО, используемое физиками для доступа к информации SDCC.

Представители SDCC сообщают, что лаборатория пользуется преимуществами гибридной СХД: данные хранятся в основном на лентах и переносятся на диски только в случае необходимости, что снижает стоимость эксплуатации и повышает экологичность хранения. Так, диски требуют охлаждения и энергию, тогда как ленты вне периода эксплуатации попросту лежат в библиотеках. Сами ленточные библиотеки размещены в специальных залах с оптимизированными энергопотреблением и охлаждением.

 Источник изображения: David Rahner / Brookhaven National Laboratory

Источник изображения: David Rahner / Brookhaven National Laboratory

Также имеются запасные ёмкости для растущего «кеша» данных, собираемых лабораториями. В рамках эксперимента sPHENIX учёные намерены получить около 565 Пбайт данных, которые одновременно пишутся и на диски, и на ленты. В следующем году на смену RHIC придёт EIC, который, как ожидается, будет генерировать 220 Пбайт/год.

Отмечается, что ёмкость ленточных хранилищ обычно удваивается каждые 4–5 лет, а сами они становятся всё более компактными. Периодически перенося данные со старых носителей на новые, специалисты освобождают в библиотеке немало места. Сейчас потенциальная ёмкость библиотек Лаборатории составляет порядка 1,5 Эбайт, но учёные надеются, что со временем доведут её до 3 Эбайт. Примечательно, что спрос на ленточные картриджи только растёт. В 2023 году поставки достигли рекордного значения в 153 Эбайт. Правда, помогло это не всем вендорам.

Постоянный URL: http://servernews.kz/1112425
19.09.2024 [12:12], Руслан Авдеев

IBM без лишнего шума отправит на улицу до 6 тыс. сотрудников

IBM увольняет значительное количество сотрудников, причём пытается сделать это без лишней огласки. По данным The Register, от массовых увольнений пострадал в первую очередь коллектив IBM Cloud, в последние дни сокращения коснулись тысяч людей.

По данным одного из источников издания, всё «происходит втайне». По его словам, менеджер сообщил о необходимости подписания соглашения о неразглашении информации (NDA), запрещающее сообщать кому-либо детали увольнения. Впрочем, многочисленные сообщения на форумах, в социальных сетях и на других площадках позволяют предположить, что речь действительно идёт о масштабных увольнениях.

 Источник изображения: Jornada Produtora / Unsplash

Источник изображения: Jornada Produtora / Unsplash

На вопрос журналистов о вероятных сокращениях представитель IBM ответил, что ранее в этом году компания сообщала о «перебалансировке» рабочей силы, которая коснётся лишь небольшой доли общемирового штата. В финансовом отчёте компании за I квартал 2024 года утверждается, что она потратит $400 млн на «перебалансировку», связанную с планируемыми увольнениями. Для сравнения, в 2023 году подобная практика обошлась в $300 млн, тогда планировалось уволить 3900 человек.

При этом компания намерена закончить 2024 год с примерно тем же количеством сотрудников, что и начинала. Происходит оптимизация бизнеса — вероятно, смена бизнес-стратегии предполагает увольнение специалистов одного профиля и приглашения на работу другого. На конец 2023 года в компании насчитывалось 288 тыс. человек по всему миру.

По словам представителя IBM, в этом году речь идёт об единичных процентах возможных увольнений. В случае сокращения 1 % штата речь может идти о 2880 сотрудниках, 2 % — 5760 сотрудниках, 3 % — 8640 сотрудниках и т.д. Если предположить, что увольнение каждого из них в текущем году в среднем обойдётся во столько же, во сколько и в прошлом, можно говорить об отправке на улицу 5200 человек исходя из сумму в $400 млн, выделенной на это, подсчитали The Register.

 Источник изображения: IBM

Источник изображения: IBM

В прошлом году глава IBM Арвинд Кришна (Arvind Krishna) заявил, что намерен заменить около 7800 сотрудников на ИИ, но не указал, когда именно это произойдёт. Теперь представители IBM отмалчиваются по поводу того, сколько именно людей потеряет работу и на какие должности примут новых чтобы, как заявлено, сохранить приблизительно прежнюю численность.

По данным источников СМИ, сокращения в первую очередь коснутся программистов senior-уровня, специалистов по продажам и сотрудников поддержки. При этом набор сотрудников будет продолжаться в Индии, где IBM уже давно набирает кадры в приоритетном порядке.

При этом под сокращение, по данным источников, попадают в первую очередь люди в возрасте 50–55 лет, занимающие довольно высокие должности и получающие высокую зарплату. Несмотря на прошлые и актуальные иски, связанные с увольнениями, в IBM настаивают, что систематическая дискриминация по возрасту в компании отсутствует.

Постоянный URL: http://servernews.kz/1111197
18.09.2024 [11:23], Владимир Мироненко

Генеративный ИИ «оживляет» мейнфреймы

Мейнфреймы по-прежнему сохраняют актуальность, несмотря бурное развитие ИИ-технологий и облачных сервисов, пишет The Register со ссылкой на новое исследование State of Mainframe Modernization компании Kyndryl.

Согласно данным опроса 500 топ-менеджеров ИТ-индустрии, многие организации интегрируют свои мейнфреймы с публичными и частными облачными платформами и совершенствуют свои программы модернизации, перемещая некоторые рабочие нагрузки с мейнфрейма и обновляя другие на месте, чтобы продолжать пользоваться такими преимуществами мейнфреймов, как безопасность и надёжность.

Kyndryl сообщила, что 86 % респондентов развёртывают или планируют развёртывать инструменты и приложения генеративного ИИ в своей среде мейнфреймов. Исходя из этого Kyndryl назвала 2024 год «годом внедрения ИИ на мейнфреймах». Сама IBM заявила, что генеративный ИИ стал движущей силой в её бизнесе мейнфреймов, проносящим больше выручки в последние кварталы.

 Источник изображения: IBM

Источник изображения: IBM

Большая часть участников опроса (80 %) всё ещё находится на стадии изучения возможностей генеративного ИИ, но вместе с тем 41 % респондентов надеется использовать его для ускорения операций и снижения их подверженности человеческим ошибкам. Между тем, 33 % респондентов нацелены на улучшение клиентского опыта, например, за счёт повышения персонализации, а также разблокировании критически важных данных и преобразование неструктурированных данных в полезную информацию, в то время как треть участников опроса планирует использовать генеративный ИИ для извлечения бизнес-информации из своих данных, управляемых мейнфреймами, чтобы помочь в разработке новых продуктов или услуг.

Согласно Kyndryl, генеративный ИИ также может помочь в модернизации, «проливая свет на внутреннюю работу монолитных приложений», что, как утверждается, может компенсировать нехватку навыков работы с мейнфреймами у нынешних сотрудников. Вместе с тем меньшая часть респондентов, чьи компании применяют мейнфреймы, не планирует использовать генеративный ИИ в какой-либо форме, ссылаясь на проблемы безопасности и регулирования в качестве причины своего нежелания или говоря о наличии других приоритетов.

Опрос показал, что компании, продолжающие эксплуатировать мейнфреймы, стремятся использовать их с максимальной эффективностью, но также и пользоваться гибкостью облачных сервисов. Хотя 96 % респондентов заявили, что перемещают некоторые рабочие нагрузки с мейнфреймов (около трети), 89 % согласились, что эти системы по-прежнему чрезвычайно или очень важны для их бизнес-операций.

В отчёте Kyndryl выделено три основных варианта модернизации мейнфреймов, причём большинство организаций использует их сочетания. Один из них — миграция, перенос некоторых или всех приложений и данных в облако или на локальную альтернативу. Второй вариант — интеграция данных и приложений мейнфрейма с другими платформами, что позволяет, например, новым облачным приложениям получать к ним доступ. Как ожидается, эта модель будет использоваться чаще с продолжающейся эволюцией генеративного ИИ, сообщила Kyndryl. Третий вариант — модернизация рабочих нагрузок на мейнфрейме, определение того, какие приложения следует сохранить, заменить или удалить, что подразумевает модернизацию исходного кода приложений или использование более современных языков, а также использование новых технологий, таких как ИИ и контейнеризация.

Это уже второе исследование State of Mainframe Modernization компании Kyndryl, и в этом году больше респондентов заявили, что они сосредоточены в первую очередь на модернизации или интеграции с облаком, в то время как меньшее количество выбрали в качестве первоочередной задачи перенос рабочих нагрузок с мейнфрейма.

Около 53 % респондентов заявили о росте использования мейнфреймов в этом году, а 49 % сообщили, что ожидают дальнейшего роста использования в течение следующих 12 месяцев. По словам Kyndryl, окупаемость инвестиций в проекты модернизации мейнфреймов составляет от 114 до 225 %.

Что также важно, 66 % респондентов заявили, что уровень безопасности, предлагаемый мэйнфреймами, является для них самым важным фактором, и почти половина опрошенных назвала обеспечение безопасности основной причиной инвестиций в модернизацию.

Один из руководителей ИТ-отдела оптовой компании в США сообщил, что был принят гибридный облачный подход, поскольку он позволяет хранить конфиденциальные данные в защищённой среде мейнфрейма, используя облако для менее важных рабочих нагрузок.

Также в исследовании сообщается о сохранении проблемы с нехваткой персонала с соответствующим опытом работы с мейнфреймами. 18 % респондентов из компаний, интегрирующих мейнфреймы с другими платформами, заявили, что недостаточный опыт был основным препятствием для успеха проекта, в то время как более четверти участников опроса выразили обеспокоенность тем, что их организациям не хватает необходимого уровня навыков для эффективной модернизации мейнфреймов. IBM пытается решить проблему с кадрами, представив в начале этого года пару инициатив по решению проблемы нехватки инженеров.

Также отмечено, что что 43 % респондентов указали, что у них нет навыков использования возможностей ИИ и генеративного ИИ, что заставляет всё больше организаций обращаться к внешним поставщикам, таким как Kyndryl, для реализации своих проектов модернизации. Подводя итоги, Kyndryl сделала вывод о том, что мейнфрейм остаётся важнейшей ИТ-средой для многих предприятий и даже становится всё более актуальным благодаря своей безопасности, надёжности и производительности.

Постоянный URL: http://servernews.kz/1111119
13.09.2024 [10:22], Сергей Карасёв

Некогда самый мощный в мире суперкомпьютер Summit уйдёт на покой в ноябре

Высокопроизводительный вычислительный комплекс Summit, установленный в Окриджской национальной лаборатории (ORNL) Министерства энергетики США, будет выведен из эксплуатации в ноябре 2024 года. Обслуживать машину становится всё дороже, а по эффективности она уступает современным суперкомпьютерам.

Summit был запущен в 2018 году и сразу же возглавил рейтинг мощнейших вычислительных систем мира TOP500. Комплекс насчитывает 4608 узлов, каждый из которых оборудован двумя 22-ядерными процессорами IBM POWER9 с частотой 3,07 ГГц и шестью ускорителями NVIDIA Tesla GV100. Узлы соединены через двухканальную сеть Mellanox EDR InfiniBand, что обеспечивает пропускную способность в 200 Гбит/с для каждого сервера. Энергопотребление машины составляет чуть больше 10 МВт.

 Источник изображения: ORNL

Источник изображения: ORNL

FP64-быстродействие Summit достигает 148,6 Пфлопс (Linpack), а пиковая производительность составляет 200,79 Пфлопс. За шесть лет своей работы суперкомпьютер ни разу не выбывал из первой десятки TOP500: так, в нынешнем рейтинге он занимает девятую позицию.

 Источник изображения: ORNL

Источник изображения: ORNL

Отправить Summit на покой планировалось в начале 2024-го. Однако затем была запущена инициатива SummitPLUS, и срок службы вычислительного комплекса увеличился практически на год. Отмечается, что этот суперкомпьютер оказался необычайно продуктивным. Он обеспечил исследователям по всему миру более 200 млн часов работы вычислительных узлов.

В настоящее время ORNL эксплуатирует ряд других суперкомпьютеров, в число которых входит Frontier — самый мощный НРС-комплекс в мире. Его пиковое быстродействие достигает 1714,81 Пфлопс, или более 1,7 Эфлопс. При этом энергопотребление составляет 22 786 кВт: таким образом, система Frontier не только быстрее, но и значительно энергоэффективнее Summit. А весной этого года из-за растущего количества сбоев и протечек СЖО на аукционе был продан 5,34-ПФлопс суперкомпьютер Cheyenne.

Постоянный URL: http://servernews.kz/1110910
09.09.2024 [12:10], Руслан Авдеев

LLM в комплекте: Red Hat выпустила платформу RHEL AI для работы с генеративным ИИ

Red Hat объявила о запуске платформы Red Hat Enterprise Linux AI (RHEL AI) для создания генеративных ИИ-решений в облачных средах. По данным Silicon Angle, анонсированный три месяца назад пакет ПО сделали общедоступным в ходе мероприятия Red Hat Summit.

Ранее анонсированный пакет включает семейство открытых языковых моделей IBM Granite, а также инструмент настройки моделей InstructLab, разработанный самой RedHat. Всё это объединили в образ RHEL для развёртывания в гибридных облаках и на локальных площадках. В компании сообщили, что RHEL AI упростит и удешевит разработку компактных и недорогих моделей.

Затраты на обучение моделей могут быть очень высокими, в Red Hat сообщают, что на создание некоторых передовых моделей уходит до $200 млн. И это только на обучение, без учёта стоимости самих данных и настройки, критически важной для выполнения специальных задач каждой конкретной компании. В Red Hat уверяют, что будущее за небольшими генеративными ИИ-моделями, большинство которых будет open source.

 Источник изображения: Red Hat

Источник изображения: Red Hat

В компании рассчитывают, что RHEL AI станет основной платформой для создания «бюджетных» и открытых решений. По умолчанию предоставляется библиотека бесплатных LLM Granite общего назначения. InstructLab поможет в тонкой настройке моделей без обширных навыков, связанными с наукой о данных. А интеграция с Red Hat OpenShift AI упростит обучение, настройку и обслуживание моделей. RHEL AI позволит разворачивать генеративный ИИ в непосредственной близости от баз данных и хранилищ компаний.

RHEL AI оптимизирован для развёртывания на новейших серверах Dell PowerEdge и обеспечивает все возможности, предоставляемые подпиской Red Hat, в т.ч. круглосуточную поддержку, расширенную поддержку жизненного цикла моделей и, например, правовую защиту Open Source Assurance. Поскольку RHEL AI фактически является расширением Red Hat Enterprise Linux, дистрибутив можно использовать и на любом другом оборудовании, в том числе в облаках. Решение уже доступно у AWS и IBM Cloud, в Google Cloud и Azure появится возможность использовать его позже в этом году. В IBM Cloud ожидается появление предложения «как услуги» — по подписке в самом облаке, но только в следующем году.

Ранее сообщалось, что для запуска RHEL AI требуются весьма производительные сертифицированные системы с ускорителями, имеющими минимум 320 Гбайт памяти и хранилище от 200 Гбайт. Среди протестированных указаны серверы Dell с четырьмя NVIDIA H100, Lenovo с восемью AMD Instinct MI300X, а также инстансы IBM Cloud GX3. Вскоре обещана поддержка инстансов AWS EC2 P5 с NVIDIA H100 и ускорителей Intel.

Постоянный URL: http://servernews.kz/1110662
31.08.2024 [00:39], Алексей Степин

Новые мейнфреймы IBM z получат ИИ-ускорители Spyre

Вместе с процессорами Telum II для систем z17 компания IBM представила и собственные ускорители Spyre, ещё больше расширяющие возможности будущих мейнфреймов в области обработки ИИ-нагрузок. Они станут дополнением к встроенным в Telum ИИ-блокам.

 Источник изображений: IBM

Источник изображений: IBM

Spyre представляет собой плату расширения с интерфейсом PCIe 5.0 x16 и теплопакетом 75 Вт. Помимо самого нейропроцессора IBM на ней установлено 128 Гбайт памяти LPDDR5, а производительность в ИИ-задачах оценивается производителем в более чем 300 Топс, т.е. новинки подходят для инференса крупных моделей. Сам чип приозводится с использованием 5-нм техпроцесса Samsung 5LPE и содержит 26 млрд транзисторов, а площадь его кристалла составляет 330 мм2.

Spyre включает 32 ядра, каждое из которых дополнено 2 Мбайт быстрой скрэтч-памяти. Отдельно отмечено, что последняя не является кешем. При этом заявлена эффективность использования доступных вычислительных ресурсов — свыше 55 % на ядро. Каждое ядро содержит 78 матричных блоков и раздельные FP16-аккумуляторы, по восемь на «вход» и «выход». Интересно, что ядра Spyre и скрэтч-память используют отдельные кольцевые двунаправленные шины разной разрядности (32 и 128 бит соответственно), причём с оперативной памятью на скорости 200 Гбайт/с соединена именно вторая.

Каждый узел (drawer) на базе Telum II способен вместить восемь плат Spyre, которые формируют логический кластер, располагающий 1 Тбайт памяти с совокупной ПСП 1,6 Тбайт/с, но, разумеется, каждая плата будет ограничена 128 Гбайт/с из-за интерфейса PCIe 5.0 x16. Spyre создан с упором на предиктивный и генеративный ИИ, благо в полной комплектации новые мейнфреймы могут нести 96 таких ускорителей и развивать до 30 ПОпс (Петаопс).

Новинки рассчитаны на работу в средах zCX или Linux on Z, сопровождаются оптимизированным набором библиотек и совместимы с популярными фреймворками Pytoch, TensorFlow и ONNX. Они станут частью программных платформ IBM watsonx и Red Hat OpenShift. Новые мейнфреймы IBM z17 должны дебютировать на рынке в 2025 году. А в собственном облаке IBM будет также полагаться и на Intel Gaudi 3.

Постоянный URL: http://servernews.kz/1110080
30.08.2024 [23:53], Алексей Степин

IBM представила процессор Telum II: 8 × 5,5 ГГц, 2,88 Гбайт L4-кеш, улучшенный ИИ-ускоритель и встроенный DPU

Несмотря на доминирование архитектур x86 и Arm, а также растущую популярность RISC-V, востребованность классических мейнфреймов IBM на базе z/Architecture по-прежнему остаётся высокой, и компания продолжает активно развивать данное направление. На этой неделе IBM представила наследника Telum — процессор Telum II, в котором не только получили развитие заложенные ранее идеи, но и были реализованы достаточно серьёзные нововведения.

Telum II будет выпускаться Samsung по 5-нм техпроцессу 5HPP (43 млрд транзисторов, 600 мм2). Он по-прежнему имеет восемь ядер с фиксированной рабочей частотой 5,5 ГГц. Сами ядра подверглись усовершенствованию, пусть и достаточно минорному: повышена точность предсказания ветвлений, улучшены механизмы сквозной записи и трансляции адресов. Это должно обеспечить новинке 20 % преимущества в пересчёте на процессорный разъём в сравнении с предшественником. Также благодаря новому техпроцессу удалось снизить площадь ядра на 20 %, а энергопотребление — на 15 %. Для поддержания постоянной тактовой частоты в Telum II используется новый блок управления напряжениями.

 Источник изображений: IBM

Источник изображений: IBM

Серьёзно улучшена подсистема кешей: объём кеш-памяти подрос на 40 %, всего разделов L2-кеша десять. Каждый из них имеет объём 36 Мбайт, а латентность не превышает 3,6 нс. Объёмы виртуальных кешей L3 (11,5 нс) и L4 (48,5 нс) выросли до 360 Мбайт (на процессор) и 2,88 Гбайт (на узел) соответственно. Сама технология виртуального кеширования такова, что текущее свободное место в L2 может использоваться для любой задачи, где может быть востребовано. На 30 % повышена пропускная способность связи чипа с внешним миром, а общение на межузловом уровне теперь шифруется.

Встроенный ИИ-блок в Telum II в сравнении с предыдущим поколением стал вчетверо быстрее — 24 Топс. Сам сопроцессор имеет архитектуру, оптимальную для работы с LLM и нагрузками, в которых активно используется сравнительный анализ структурных или текстовых массивов данных. Есть поддержка INT8/FP16. При этом любой ИИ-ускоритель Telum II может работать с любым из ядер в пределах узла (drawer), что в предельной конфигурации даёт производительность на уровне 192 Топс, а для полностью сконфигурированной системы этот показатель равен 768 Топс. «Снаружи» ИИ-ускоритель доступен в виде набора CISC-инструкций.

А вот блок DPU дебютировал в Telum II впервые. Что интересно, архитектурно он не располагается «позади» PCI Express, как это бывает в системах на базе x86 или Arm, а имеет когерентное подключение к кешу L2 процессорных ядер, и при этом имеет свою подсистему кешей. Применение DPU, по словам IBM, позволило снизить энергозатраты на обслуживание операций ввода-вывода на 70 %. DPU жизненно необходим, поскольку на мейнфреймах будут работать тысячи инстансов, а самим системам теперь полагается и внешний ИИ-ускоритель Spyre.

Всего в состав DPU входит четыре кластера по по восемь программируемых микроядер, каждое из которых имеет кеш L1 объёмом 32+32 Кбайт и работает под управлением кастомных протоколов, разработанных IBM. DPU предоставляет шину PCI Express 5.0 и в полной конфигурации c 32 процессорами и 12 модулями расширения по 16 слотов x16 в каждом система на базе Telum II может работать со 192 адаптерами PCIe.

Компания-производитель позиционирует новые системы, как enterpise-решения широкого спектра для сценариев с использованием ИИ, в том числе, в режиме Ensemble AI, в котором одновременно над задачей могут работать модели разного размера и сложности. В этом режиме малая модель выявления мошеннических атак может работать как быстрое средство, а для отдельных, особенно важных транзакций в работу включается более сложная, но и более эффективная модель класса LLM.

Процессоры Telum II станут основой как новых мейнфреймов IBM Z, работающих под управлением классической z/OS, так и Linux. Ожидается, что платформы IBM z17 на базе Telum II будут доступны уже в следующем году.

Постоянный URL: http://servernews.kz/1110065
Система Orphus