Материалы по тегу: hardware
18.11.2024 [13:38], Руслан Авдеев
Foxlink запустила мощнейший на Тайване суперкомпьютер для малого и среднего бизнесаFoxlink Group (Cheng Uei Precision Industry) открыла крупнейший на Тайване суперкомпьютерный центр Ubilink (Ubilink.AI). По данным DigiTimes, центр предназначен для обслуживания предприятий малого и среднего бизнеса (SME), которые не могут позволить себе собственных вычислительных мощностей. Хотя основной деятельностью Foxlink является производство разъёмов, компания расширяет бизнес, осваивая решения для управления электропитанием и коммуникаций, а также выпуск энергетических модулей. Центр Ubilink создан дочерней Shinfox Energy совместно с Asustek Computer и японской Ubitus, занимающейся предоставлением облачных услуг. В Ubitus сообщили, что инфраструктура Ubilink включает 128 серверов Asus, 1024 ускорителя NVIDIA H100 и интерконнект NVIDIA Quantum-2 InfiniBand. Конфигурация обеспечивает до 45,82 Пфлопс (FP64) — система занимает 31-е место в рейтинге TOP500. В будущем станут применять и более современные B100 и B200 — когда те будут доступны. Ожидается, что в 2025 году суммарно будет установлено 10 240 ускорителей H100, B100 и B200. Представители местных властей уже заявили, что Ubilink существенно улучшит позиции Тайваня на рынке ИИ-вычислений, на котором территория сегодня занимает 26-е место. В Asustek добавляют, что достигнутая производительность в 45,82 Пфлопс заметно превышает плановые 40 Пфлопс. Кроме того, центр имеет PUE на уровне 1,2 — ранее ожидалось, что удастся добиться энергоэффективности лишь на уровне 1,38. Благодаря использованию опыта Shinfox Energy в области возобновляемой энергетики, Ubilink стал первым в Азии суперкомпьютерным центром, использующим «зелёные» источники энергии — клиенты могут воспользоваться вычислениями без существенного ущерба окружающей среде. Предполагается, что Ubilink компенсирует отсутствие мощностей для местных малых и средних компаний, не имеющих доступа к значительным вычислительным ресурсам. Предлагая доступные вычислительные мощности, центр позволяет таким бизнесам расширить свои портфели предложений и конкурировать даже на мировом уровне. Суперкомпьютер уже востребован местными разработчиками чипов, компаний, занимающихся их упаковкой и тестированием, биотехнологическими бизнесами, а также исследовательскими институтами различной направленности. Из-за высокого спроса Foxlink уже рассматривает вторую и третью фазы расширения проекта.
18.11.2024 [10:59], Сергей Карасёв
OpenAI раздумывала, не купить ли разработчика ИИ-ускорителей Cerebras при участии TeslaКомпания OpenAI, по информации ресурса TechCrunch, изучала возможность приобретения американского стартапа Cerebras Systems, специализирующегося на разработке ИИ-ускорителей. Такие сведения вскрылись в рамках судебного процесса по иску Илона Маска (Elon Musk) против OpenAI. Маск является одним из основателей OpenAI — он покинул эту компанию в 2018 году. В начале августа нынешнего года Маск подал в суд на OpenAI и её генерального директора Сэма Альтмана (Sam Altman), обвинив их в нарушении прав и интересов, а также во введении в заблуждение. Как теперь сообщается, в электронном письме, адресованном Альтману и Маску, Илья Суцкевер (Ilya Sutskever), один из соучредителей OpenAI и бывший главный научный сотрудник компании, обсуждал идею покупки Cerebras через Tesla. В другом письме от июля 2017 года Суцкевер затрагивает ряд вопросов, связанных с Cerebras, таких как переговоры об условиях слияния и проверка благонадёжности финансового состояния Cerebras. «Если мы решим купить Cerebras, я твердо уверен, что это будет сделано через Tesla. Но зачем делать это таким образом, если мы могли бы провести сделку изнутри OpenAI? В частности, вызывает беспокойство то, что Tesla имеет обязательство перед акционерами максимизировать их доход, что не соответствует миссии OpenAI», — написал Суцкевер. Cerebras создаёт ИИ-суперускорители размером с целую кремниевую пластину. Флагманским продуктом стартапа является решение Wafer Scale Engine третьего поколения (WSE-3). Это гигантское изделие содержит 4 трлн транзисторов, 900 тыс. ядер и 44 Гбайт памяти SRAM. Предполагалось, что слияние с OpenAI будет выгодно обеим сторонам. В частности, Cerebras избежала бы сложного пути, связанного с IPO, тогда как OpenAI смогла бы получить в своё распоряжение мощные аппаратные ускорители для ресурсоёмких ИИ-задач. Однако сделка в итоге провалилась, хотя причины сворачивания переговоров не раскрываются.
18.11.2024 [10:55], Сергей Карасёв
Вышел одноплатный компьютер Orange Pi 4A с RISC-V и Arm-ядрами производительностью 2 TOPSКоманда Orange Pi, по сообщению ресурса CNX Software, выпустила одноплатный компьютер Orange Pi 4A, подходящий для работы с приложениями ИИ. Для новинки, которая уже доступна для заказа, заявлена возможность работы с Ubuntu, Debian и Android 13. В основу устройства положен процессор Allwinner T527. Чип содержит восемь ядер Arm Cortex-A55 (четыре с частотой 1,8 ГГц и четыре с частотой 1,42 ГГц) и одно ядро XuanTie E906 с архитектурой RISC-V (200 МГц). Присутствуют графический ускоритель Arm Mali-G57 MC1 и блок VPU с возможностью декодирования материалов H.265 4Kp60, а также кодирования H.264 4Kp25. Кроме того, имеется нейропроцессорный узел (NPU) с производительностью до 2 TOPS для ускорения ИИ-операций. Одноплатный компьютер может нести на борту 2 или 4 Гбайт памяти LPDDR4/4X, флеш-модуль eMMC вместимостью от 16 до 128 Гбайт, SSD формата M.2 с интерфейсом PCIe 2.0 (NVMe). Есть слот для карты microSD, адаптеры Wi-Fi 5.0 и Bluetooth 5.0 LE (Ampak AP6256), сетевой контроллер 1GbE. В число доступных разъёмов входят интерфейс HDMI 2.0 (4Kp60), четыре порта USB Type-A 2.0, гнездо RJ45 для сетевого кабеля, аудиогнездо на 3,5 мм, коннектор USB Type-C для подачи питания. Упомянуты 40-контактная колодка GPIO, совместимая с Raspberry Pi (GPIO, UART, I2C, SPI, PWM), интерфейсы MIPI-CSI на две и четыре линии, 4-контактная колодка с поддержкой USB 2.0, коннекторы MIPI-DSI (четыре линии), eDP 1.3 и ADC. Габариты составляют 89 × 56 мм, масса — 52 г. Одноплатный компьютер Orange Pi 4A предлагается по цене $35 за модификацию с 2 Гбайт ОЗУ. За вариант с 4 Гбайт памяти придётся заплатить на $5 больше.
17.11.2024 [11:32], Сергей Карасёв
NEC создаст в Японии суперкомпьютер на базе Intel Xeon 6900P и AMD Instinct MI300A для исследований термоядерного синтезаКорпорация NEC займётся созданием нового НРС-комплекса, который планируется ввести в эксплуатацию в Японии в июле 2025 года. Система, базирующаяся на компонентах AMD и Intel, будет использоваться для различных исследований и разработок в области термоядерного синтеза. Заказ на создание суперкомпьютера поступил от Национальных институтов квантовой науки и технологий Японии (QST) при Национальном агентстве исследований и разработок (ANID), а также от Национального института термоядерных наук (NIFS) в составе Национальных институтов естественных наук (NINS). Система будет установлена в Институте термоядерной энергии Rokkasho (входит в QST) в Аомори (Япония). Основой проектируемого суперкомпьютера послужат 360 узлов NEC LX 204Bin-3, в состав каждого из которых войдут два процессора Intel Xeon 6900P поколения Granite Rapids (всего 720 чипов) и память DDR5 MRDIMM. Кроме того, будут задействованы 70 узлов NEC LX 401Bax-3GA, несущих на борту по четыре ускорителя AMD Instinct MI300A (в общей сложности 280 изделий). Говорится о применении интерконнекта InfiniBand с 400G-коммутаторами NVIDIA QM9700, а также хранилища DDN EXAScaler ES400NVX2 вместимостью 42,2 Пбайт с файловой системой Lustre. Для управления рабочими нагрузками будет использоваться софт Altair PBS Professional. Ожидается, что производительность суперкомпьютера достигнет 40,4 Пфлопс. Это в 2,7 раза больше суммарных показателей двух нынешних НРС-систем, установленных в рамках независимых проектов QST и NIFS. Учёные намерены применять новый НРС-комплекс для точного прогнозирования экспериментов и создания сценариев работы для Международного экспериментального термоядерного реактора (ITER). Кроме того, мощности суперкомпьютера будут востребованы исследовательскими группами токамака Satellite Tokamak JT-60SA и электростанции DEMO (DEMOnstration Power Plant), использующей термоядерный синтез.
16.11.2024 [21:17], Руслан Авдеев
Bloom Energy поставит ИИ ЦОД топливные элементы на 1 ГВтРазработчик газовых топливных элементов Bloom Energy подписал с одной из крупнейших энергетических компаний США — American Electric Power (AEP) соглашение о поставке твердооксидных ячеек (SOFC) совокупной мощностью до 1 ГВт, которые AEP намерена использовать в качестве ещё одного источника питания ИИ ЦОД. Изначально AEP рассчитывает получить 100 МВт, а в 2025 году заказать ещё одну партию элементов, сообщает Datacenter Dynamics. Топливные элементы Bloom Energy могут работать на водороде или любых смесях природных газов. Впрочем, на данный момент речь идёт только об использовании природного газа, который не считается в отрасли по-настоящему «зелёным» в отличие от некоторых видов водорода. Bloom Energy уже заключила несколько знаковых сделок в секторе ЦОД в 2024 году. В июле облачный провайдер CoreWeave сообщил о намерении внедрять топливные ячейки Bloom в Иллинойсе. Ожидается, что система питания на их основе будет готова к сдаче в III квартале 2025 года. В июле же Bloom Energy заключила соглашение на 15 лет о поставке планируемому дата-центру AWS в Кремниевой долине Amazon (AWS) 20 МВт от топливных элементов. Впрочем, у компании в 2024 году были и некоторые проблемы с реализацией проектов. В июне Amazon отказалась от контракта на покупку ячеек для ЦОД в Орегоне, хотя Bloom Energy в этом не виновата. В 2023 году стороны заключили соглашение, предусматривавшее поставку элементов на 24 МВт. На тот момент их продвигали в качестве локального низкоуглеродного источника питания трёх ЦОД AWS. Однако в данной местности большая часть энергии поступает от ГЭС, поэтому местный регулятор решил, что использование топливных элементов зря приведёт к выбросам, эквивалентным 250 тыс. т CO2 ежегодно.
16.11.2024 [20:59], Сергей Карасёв
Стартап xAI Илона Маска получит от арабов $5 млрд на покупку ещё 100 тыс. ускорителей NVIDIAКак сообщает CNBC, стартап xAI Илона Маска (Elon Musk) привлёк многомиллиардные инвестиции: деньги будут направлены на закупку ускорителей NVIDIA для расширения вычислительных мощностей ИИ-суперкомпьютера. Напомним, в начале сентября нынешнего года компания xAI запустила ИИ-кластер Colossus со 100 тыс. ускорителей NVIDIA H100. В составе платформы применяются серверы Supermicro, узлы хранения типа All-Flash, адаптеры SuperNIC, а также СЖО. Суперкомпьютер располагается в огромном дата-центре в окрестностях Мемфиса (штат Теннесси). Как теперь стало известно, в рамках нового раунда финансирования xAI привлечёт $6 млрд. Из них $5 млрд поступит от суверенных фондов Ближнего Востока, а ещё $1 — от других инвесторов, имена которых не раскрываются. При этом рыночная стоимость стартапа достигнет $50 млрд. О том, что xAI получит дополнительные средства на развитие, также сообщает Financial Times. По данным этой газеты, речь идёт о $5 млрд при капитализации стартапа на уровне $45 млрд. Ранее Маск говорил о намерении удвоить производительность Colossus: для этого, в частности, планируется приобрести примерно 100 тыс. ИИ-ускорителей, включая 50 тыс. изделий NVIDIA H200. Судя по всему, привлеченные средства стартап также направит на покупку других решений NVIDIA, в том числе коммутаторов Spectrum-X SN5600 и сетевых карт на базе BlueField-3. Между тем жители Мемфиса выражают недовольство в связи с развитием ИИ-комплекса xAI. Активисты, в частности, обвиняют стартап в том, что используемые на территории его дата-центра генераторы ухудшают качество воздуха в регионе.
16.11.2024 [20:49], Сергей Карасёв
Сандийские национальные лаборатории запустили ИИ-систему Kingfisher на огромных чипах Cerebras WSE-3Сандийские национальные лаборатории (SNL) Министерства энергетики США (DOE) в рамках партнёрства с компанией Cerebras Systems объявили о запуске кластера Kingfisher, который будет использоваться в качестве испытательной платформы при разработке ИИ-технологий для обеспечения национальной безопасности. Основой Kingfisher служат узлы Cerebras CS-3, которые выполнены на фирменных ускорителях Wafer Scale Engine третьего поколения (WSE-3). Эти гигантские изделия содержат 4 трлн транзисторов, 900 тыс. ядер и 44 Гбайт памяти SRAM. Суммарная пропускная способность встроенной памяти достигает 21 Пбайт/с, внутреннего интерконнекта — 214 Пбит/с. На сегодняшний день платформа Kingfisher объединяет четыре узла Cerebras CS-3, а конечная конфигурация предусматривает использование восьми таких блоков. Узлы Cerebras CS-3 мощностью 23 кВт каждый содержат СЖО, подсистемы питания, сетевой интерконнект Ethernet и другие компоненты. Развёртывание кластера Cerebras CS-3 является частью программы Advanced Simulation and Computing (ASC), которая реализуется Национальным управлением по ядерной безопасности США (NNSA). Речь идёт, в частности, об инициативе ASC Artificial Intelligence for Nuclear Deterrence (AI4ND) — искусственный интеллект для ядерного сдерживания. Предполагается, что Kingfisher позволит разрабатывать крупномасштабные и надёжные модели ИИ с использованием защищённых внутренних ресурсов Tri-lab — группы, в которую входят Сандийские национальные лаборатории, Ливерморская национальная лаборатория имени Лоуренса (LLNL) и Лос-Аламосская национальная лаборатория (LANL) в составе (DOE).
15.11.2024 [19:50], Руслан Авдеев
ИИ-серверы NVIDIA помогут в управлении АЭС в КалифорнииКалифорнийский коммунальный оператор Pacific Gas and Electric Company (PG&E) намерен построить в Сан-Хосе кампус из трёх ЦОД с общей подведённой мощностью 200 МВт и внедрить ИИ-оборудование NVIDIA на площадке при АЭС Diablo Canyon, передаёт Datacenter Dynamics. В рамках совместного проекта PG&E Corporation с застройщиком Westbank в Сан-Хосе появятся три дата-центра и более 4 тыс. единиц жилья. Локальная энергосистема свяжет дата-центры и близлежащие районы, благодаря чему можно будет использовать тепло дата-центров для отопления и подачи горячей воды в соседние здания, что позволит добиться нулевых углеродных выбросов. Также PG&E объявила о NVIDIA развёртывании ИИ-оборудования NVIDIA и программных ИИ-решений Atomic Canyon на АЭС Diablo Canyon Power Plant. В NVIDIA уже заявили, что внедрение ИИ строго регулируемыми отраслями вроде атомной энергетики открывает новые возможности, а продукты Atomic Canyon будут способствовать росту операционной эффективности отрасли. В частности, речь идёт о решении Neutron Enterprise на базе семейства ИИ-моделей FERMI компании Atomic Canyon, которые разработаны совместно с учёными Министерства энергетики США. Решение предназначено для ядерных объектов и в основном применяется для работы с документацией. Предполагается, что это обеспечит значительную экономию средств и повысит эффективность и безопасность работы АЭС. ИИ-продукты Atomic Canyon позволят быстрее получать и обрабатывать данные. Как отмечает Reuters, решение о внедрении ИИ — не просто дань моде. Станцию уже планировали закрыть, но отложили этот процесс в 2022 году из-за необходимости достижения планируемых показателей «безуглеродности» в штате. В Diablo Canyon насчитывается 9 тыс. различных процедур и 9 млн. документов, многие на микрофильмах. Для того, чтобы PG&E могла сохранить федеральную лицензию на эксплуатацию в течение ещё 20 лет, необходимо сформировать планы управления АЭС с учётом её старения. Значительную часть информации предстоит получить из документов, подготовленных десятилетия назад. ИИ, обученный на таких документах, поможет найти в огромном массиве необходимые материалы, в том числе на микрофильмах, а в будущем сможет помочь в составлении расписаний обслуживания станции, принимающих в расчёт множество факторов. При этом весь ИИ-комплекс работает автономно и не имеет прямого выхода глобальную Сеть. АЭС Diablo Canyon Power Plant была запущена в 1985 году. Совокупная мощность двух реакторов Westinghouse составляет порядка 2,25 ГВт. Это единственная оставшаяся в Калифорнии действующая атомная электростанция и она обеспечивает подачу почти 9 % электроэнергии штата, а также 17 % энергии с нулевым углеродным выбросом.
15.11.2024 [13:50], Руслан Авдеев
Операторы ЦОД выстроились в очередь, чтобы получить 750 МВт от SMR компании OkloПоддерживаемый Сэмом Альтманом (Sam Altman) стартап Oklo сообщил о получении запросов на поставку 750 МВт для ЦОД в США. Потенциальные клиенты не называются, но известно, что общая мощность планируемых к строительству реакторов Oklo в результате должна вырасти до 2,1 ГВт. Как сообщает The Register, разработки Oklo, вероятно, основаны на экспериментальной модели Experimental Breeder Reactor II (EBR-II) и используют жидкостно-металлическое охлаждение. Такие реакторы способны генерировать 15–50 МВт энергии, в зависимости от конфигурации. Это означает, что неназванные клиенты Oklo в общей сложности намерены использовать 15–50 реакторов для удовлетворения их запросов. Впрочем, до получения реальных поставок пока далеко. На сайте Oklo сообщается, что до конца десятилетия должна заработать только первая электростанция. До этого компания должна получить разрешение у Комиссии по ядерному регулированию США, необходимые заявки уже поданы. В 2022 году регулятор уже отклонил план строительства SMR компанией, сославшись на «значительные информационные пробелы», связанные с мерами, принимаемыми для обеспечения безопасности. Позже Oklo получила поддержку правительственных ведомств. Министерство энергетики выдало разрешение на использование площадки, а Национальная лаборатория Айдахо (где находится EBR-II) выделила топливо для поддержки проекта. При этом Oklo может избежать проблем, с которыми сталкиваются другие «атомные» стартапы вроде Terrapower. Реакторы Oklo предназначены для уже отработанного ядерного топлива от обычных реакторов. Фактически стартап сейчас сотрудничает с лабораториями Министерства энергетики для разработки новых технологий утилизации отработанного топлива. Oklo рассчитывает представить план переработки коммерческого уровня к началу 2030-х годов. Ранее сообщалось, что Okla ищет главу ЦОД-направления. В прошлом месяце Amazon (AWS) объявила о поддержке трёх новых атомных проектов, включая строительство нескольких SMR компанией X-energy. Amazon является одним из её крупнейших инвесторов в ходе раунда финансирования серии C на $500 млн. Oracle также анонсировала получение разрешений на строительство трёх SMR для питания ИИ ЦОД ёмкостью более 1 ГВТ. Тем временем Google заключила соглашение с Kairos Power для удовлетворения собственных энергетических потребностей. Несмотря на весь ажиотаж, связанный с SMR, технология всё ещё не доказала своей экономической целесообразности, хотя идея построения небольших и мощных источников энергии буквально в любом месте слишком хороша, чтобы ЦОД отказались от неё. В любом случае SMR будут нет так уж доступны. Эксперты утверждают, что SMR «слишком дороги, медленно строятся и слишком рискованны для того, чтобы играть значимую роль в отказе от ископаемого топлива». NuScale, одной из первых получившая одобрения собственного проекта SMR, уже, возможно, пожалела об этом. Стартап планировал построить шесть реакторов на 462 МВт в Юте, но высокие цены оттолкнули потребителей и проект в конечном счёте просто забросили. Даже участие в проектах с обычными АЭС не гарантирует успех. AWS в этом году приобрела за $650 млн кампус ЦОД Cumulus Data около АЭС Susquehanna в Пенсильвании и планировала построить там 15 ЦОД. Тем не менее к ноябрю регулятор отказал в увеличении подачи энергии на площадку, хотя компания не намерена отказываться от проекта. Бывает и хуже. Meta✴ рассчитывала построить «атомные ЦОД», но на необходимой ей площадке обнаружился редкий вид пчёл, поэтому от проекта пришлось отказаться.
14.11.2024 [23:07], Владимир Мироненко
Google и NVIDIA показали первые результаты TPU v6 и B200 в ИИ-бенчмарке MLPerf TrainingУскорители Blackwell компании NVIDIA опередили в бенчмарках MLPerf Training 4.1 чипы H100 более чем в 2,2 раза, сообщил The Register. По словам NVIDIA, более высокая пропускная способность памяти в Blackwell также сыграла свою роль. Тесты были проведены с использование собственного суперкомпьютера NVIDIA Nyx на базе DGX B200. Новые ускорители имеют примерно в 2,27 раза более высокую пиковую производительность в вычисления FP8, FP16, BF16 и TF32, чем системы H100 последнего поколения. B200 показал в 2,2 раза более высокую производительность при тюнинге модели Llama 2 70B и в два раза большую производительность при предварительном обучении (Pre-training) модели GPT-3 175B. Для рекомендательных систем и генерации изображений прирост составил 64 % и 62 % соответственно. Компания также отметила преимущества используемой в B200 памяти HBM3e, благодаря которой бенчмарк GPT-3 успешно отработал всего на 64 ускорителях Blackwell без ущерба для производительности каждого GPU, тогда как для достижения такого же результата понадобилось бы 256 ускорителей H100. Впрочем, про Hopper компания тоже не забывает — в новом раунде компания смогла масштабировать тест GPT-3 175B до 11 616 ускорителей H100. Компания отметила, что платформа NVIDIA Blackwell обеспечивает значительный скачок производительности по сравнению с платформой Hopper, особенно при работе с LLM. В то же время чипы поколения Hopper по-прежнему остаются актуальными благодаря непрерывным оптимизациям ПО, порой кратно повышающим производительность в некоторых задач. Интрига в том, что в этот раз NVIDIA решила не показывать результаты GB200, хотя такие системы есть и у неё, и у партнёров. В свою очередь, Google представила первые результаты тестирования 6-го поколения TPU под названием Trillium, о доступности которого было объявлено в прошлом месяце, и второй раунд результатов ускорителей 5-го поколения TPU v5p. Ранее Google тестировала только TPU v5e. По сравнению с последним вариантом, Trillium обеспечивает прирост производительности в 3,8 раза в задаче обучения GPT-3, отмечает IEEE Spectrum. Если же сравнивать результаты с показателями NVIDIA, то всё выглядит не так оптимистично. Система из 6144 TPU v5p достигла контрольной точки обучения GPT-3 за 11,77 мин, отстав от системы с 11 616 H100, которая выполнила задачу примерно за 3,44 мин. При одинаковом же количестве ускорителей решения Google почти вдвое отстают от решений NVIDIA, а разница между v5p и v6e составляет менее 10 %. В тесте Stable Diffusion система из 1024 TPU v5p заняла второе место, завершив работу за 2,44 мин, тогда как система того же размера на основе NVIDIA H100 справилась с задачей за 1,37 мин. В остальных тестах на кластерах меньшего масштаба разрыв остаётся примерно полуторакратным. Впрочем, Google упирает на масштабируемость и лучшее соотношение цены и производительности в сравнении как с решениями конкурентов, так и с собственными ускорителями прошлых поколений. Также в новом раунде MLPerf появился единственный результат измерения энергопотребления во время проведения бенчмарка. Система из восьми серверов Dell XE9680, каждый из которых включал восемь ускорителей NVIDIA H100 и два процессора Intel Xeon Platinum 8480+ (Sapphire Rapids), в задаче тюнинга Llama2 70B потребила 16,38 мДж энергии, потратив на работу 5,05 мин. — средняя мощность составила 54,07 кВт. |
|