Материалы по тегу: hardware
31.03.2025 [10:49], Руслан Авдеев
Новые нормы энергоэффективности ИИ-ускорителей угрожают бизнесу NVIDIA в КитаеПекин представил новые нормы энергоэффективности для ИИ-ускорителей. Весьма вероятно, что они помешают китайским компаниям приобретать наиболее востребованные в Китае ускорители NVIDIA, если регуляторы всерьёз возьмутся за контроль их исполнения, сообщает The Financial Times. Национальная комиссия по развитию и реформам (NDRC) настоятельно рекомендует местным игрокам рынка ЦОД использовать ускорители, соответствующие требованиям к энергоэффективности, при строительстве новых дата-центров и расширении уже существующих объектов. Популярный в Китае ИИ-ускоритель NVIDIA H20 менее производителен, чем флагманские модели компании, но его можно официально поставлять в страну. Однако, по данным издания, на сегодняшний день H20 не соответствует новым требованиям комиссии. По информации источников, в последние несколько месяцев китайский регулятор без лишнего шума «отговаривает» местные IT-гиганты, такие как Alibaba, ByteDance и Tencent, от использования H20. Впрочем, пока правила применяются не слишком жёстко, и эти ускорители NVIDIA по-прежнему востребованы на китайском рынке. Последствия для бизнеса NVIDIA могут оказаться серьёзнее, если комиссия решит ужесточить запрет — это поставит под угрозу многомиллиардные доходы компании в Китае. Несмотря на активное строительство дата-центров, американский разработчик рискует потерять заказы, а его место займёт Huawei, чьи продукты лучше соответствуют новым «зелёным» требованиям. В настоящее время NVIDIA ищет способы повысить энергоэффективность своих решений и стремится провести переговоры с руководством NDRC для обсуждения сложившейся ситуации. Однако это приведёт к снижению производительности H20 и, соответственно, конкурентоспособности на китайском рынке. ![]() Источник изображения: Henry Chen/unsplash.com Поскольку ограничения распространяются главным образом на новые, строящиеся ЦОД, некоторые компании обходят правила, заменяя в уже действующих дата-центрах старые ускорители на H20. В других случаях несоблюдение норм может привести к проверкам и штрафам. Хотя ограничения вступили в силу ещё в прошлом году, до недавнего времени о них не сообщалось — Китай всеми силами стремится к технологическому суверенитету в полупроводниковой сфере и активно содействует отказу местных компаний от продукции NVIDIA. Прямым конкурентом H20 считается Huawei Ascend 910B, на подходе и вариант 910C. NRDC недвусмысленно намекает на будущее отношений Пекина и NVIDIA. После ужесточения экспортных ограничений США в отношении Китая в октябре 2023 года компания специально разработала ослабленную экспортную версию H20. Однако на фоне триумфа китайских ИИ-моделей стартапа DeepSeek в стране разразился настоящий бум ИИ-технологий, и компании вроде Alibaba и Tencent активно закупают H20, особенно с учётом вероятного дальнейшего ужесточения американских санкций, включая возможный запрет на поставки даже ослабленных ускорителей. Китай — четвёртый по величине рынок для NVIDIA в мире: в 2025 фискальном году выручка компании здесь составила $17,1 млрд, или 13 % от всех продаж. Помимо Huawei, конкуренцию NVIDIA на китайском рынке может составить и Intel с её ускорителями HL328 и HL388, однако они также не соответствуют новым китайским требованиям по энергоэффективности. Впрочем, их доля в китайском импорте изначально была незначительной.
30.03.2025 [13:37], Сергей Карасёв
Oklo довела мощность малых модульных реакторов Aurora Powerhouse до 75 МВтКомпания Oklo, поддерживаемая главой OpenAI Сэмом Альтманом (Sam Altman), по сообщению ресурса Datacenter Dynamics, увеличила максимальную мощность своих малых модульных реакторов (SMR) на быстрых нейтронах Aurora Powerhouse в полтора раза — с 50 до 75 МВт. Реакторы Oklo, как ожидается, помогут удовлетворить растущий спрос операторов дата-центров на электроэнергию на фоне стремительного развития ИИ. Развёртывание таких установок позволит снизить нагрузку на традиционные энергосети. SMR рассматриваются как более дешёвая, компактная и быстро внедряемая альтернатива традиционным АЭС. По заявлениям Oklo, компания увеличила мощность Aurora Powerhouse, чтобы удовлетворить потребности крупных клиентов. Диапазон 50–75 МВт, как утверждается, соответствует архитектуре современных ЦОД, ориентированных в том числе на задачи ИИ. Как отмечает Oklo, повышение мощности Aurora Powerhouse не приведёт к каким-либо серьёзным техническим, проектным или нормативным сложностям. При этом будет достигаться «экономия благодаря масштабу», поскольку будущие заказчики смогут наращивать энергетические ресурсы до нужных показателей с меньшим количеством установленных реакторов. На сегодняшний день Oklo получила заказы на поставки SMR суммарной мощностью более 14 ГВт. В частности, в конце 2024 года Oklo заключила не обязывающее соглашение о поставках 12 ГВт оператору ЦОД Switch до 2044 года. Кроме того, подписаны договор на 500 МВт с Equinix, не обязывающее письмо о намерениях, связанное с PPA для Prometheus Hyperscale на 100 МВт, а также партнёрские соглашения с двумя неназванными операторами ЦОД, предусматривающие поставки до 750 МВт.
30.03.2025 [13:29], Сергей Карасёв
Supermicro представила широкий ассортимент односокетных серверов на базе Intel Xeon 6Компания Supermicro анонсировала большое количество однопроцессорных серверов на аппаратной платформе Intel Xeon 6 для различных рабочих нагрузок, включая ИИ-инференс, приложения НРС, аналитику данных и пр. Утверждается, что новинки способны справляться со многими задачами, которым традиционно требуются двухсокетные машины. В зависимости от серии и модификации серверы комплектуются чипами Xeon 6500P/6700P Granite Rapids с производительными Р-ядрами или изделиями Xeon 6700E Sierra Forest с энергоэффективными Е-ядрами. Используя односокетные системы, предприятия и операторы ЦОД, как отмечает Supermicro, могут сократить первоначальные затраты на закупку оборудования и эксплуатационные расходы, включая оплату электроэнергии. Ассортимент серверов Supermicro на платформе Intel Xeon 6 включает флагманские устройства SuperBlade с максимальной производительностью для ИИ, НРС, облачных и корпоративных нагрузок. Эти системы доступны в конфигурациях с воздушным или жидкостным охлаждением. В корпусе 8U может быть размещено до 20 узлов, в шасси 6U — до десяти. Серверы допускают установку до четырёх GPU-ускорителей двойной ширины. Кроме того, представлены стоечные серверы Hyper для масштабируемых облачных рабочих нагрузок, оптимизированные для инференса. На облачные дата-центры также ориентированы устройства CloudDC. Серверы серии WIO предлагают гибкие возможности в плане конфигурации подсистемы ввода-вывода, а модели Edge предназначены для использования на периферии. Вышли также обновлённые решения GrandTwin с возможностью горячей замены узлов и серверы хранения Top-loading Storage.
29.03.2025 [10:57], Владимир Мироненко
SK hynix распродала почти всю память HBM, которую выпустит в 2026 годуНа этой неделе состоялось ежегодное собрание акционеров компании SK hynix, на котором Квак Но-чжун (Kwak Noh-jung) заявил, что переговоры компании с клиентами о продажах памяти HBM в 2026 году близки к завершению. Как пишет The Register, заявление гендиректора было воспринято как знак того, что, как и в прошлом году, SK hynix распродаст весь объём выпуска HBM на год вперёд. На мероприятии было объявлено, что в последние недели наблюдается всплеск заказов на поставки HBM, поскольку компании стремятся заключить контракты до ожидаемого увеличения США пошлин на импортируемые полупроводники. Напомним, что в феврале президент США Дональд Трамп (Donald Trump) заявил о намерении ввести тарифы на импорт полупроводников на уровне 25 % и выше, добавив, что в течение года они могут вырасти до 50 % и даже 100 %. ![]() Источник изображений: SK hynix Квак также сообщил акционерам, что SK hynix ожидает «взрывного» роста продаж HBM. На вопрос о том, представляет ли угрозу планам компании то, что DeepSeek использует для обучения своих ИИ-моделей сравнительно небольшие вычислительные мощности, глава SK hynix заявил, что достижения китайского стартапа станут стимулом для более широкого внедрения ИИ, что повлечёт за собой ещё больший спрос на продукцию SK hynix со стороны большего количества покупателей. Такой ответ стал почти стандартным для руководителей компаний, предоставляющих оборудование для обработки рабочих ИИ-нагрузок, на вопрос о том, формируется ли на ИИ-рынке «ценовой пузырь» и что может произойти, если он лопнет, отметил The Register. На прошлой неделе компания заявила, что отправила клиентам первые образцы 12-слойной памяти HBM4, отметив, что «образцы были доставлены с опережением графика» и что «она намерена завершить подготовку к массовому производству 12-слойной продукции HBM4 во второй половине года».
29.03.2025 [10:44], Сергей Карасёв
OWC представила хранилища данных Jellyfish B24 и S24 для создателей контентаКомпания Other World Computing (OWC) анонсировала стоечные СХД Jellyfish B24 и Jellyfish S24, рассчитанные прежде всего на создателей контента. Обе новинки допускают подключение модулей расширения, что позволяет наращивать вместимость по мере необходимости. Модель Jellyfish B24 на основе HDD представляет собой упрощённую версию мощного решения Jellyfish R24, разработанную для совместной работы небольших команд. Допускается установка 24 накопителей формата LFF суммарной вместимостью до 576 Тбайт. При необходимости можно подключить до четырёх модулей расширения Jellyfish B24-E посредством интерфейса mini-SAS, получив хранилище общей ёмкостью до 2,8 Пбайт. ![]() Источник изображений: OWC Устройство Jellyfish B24 выполнено в форм-факторе 4U. Задействован неназванный процессор Intel Xeon Silver, работающий в тандеме с 64 Гбайт оперативной памяти DDR4 ECC. В оснащение входит кеширующий SSD на 2 Тбайт. Есть два порта 1GbE, а при необходимости могут быть добавлены сетевые интерфейсы 10GbE (RJ45/SFP+), 25GbE (QSFP), 50GbE (QSFP28) и 100GbE (QSFP28). Предусмотрены четыре порта USB 3.0 и разъём D-Sub. За питание отвечает блок мощностью 875 Вт с резервированием. Габариты СХД составляют 432 × 318 × 198 мм, масса — 15,9 кг без установленных накопителей. Поддерживаются протоколы SMB, NFS, FTP и SSH. ![]() Вариант Jellyfish S24, в свою очередь, рассчитан на 24 SSD формата SFF. При подключении модуля расширения Jellyfish S24-E можно получить суммарную вместимость до 736 Тбайт на основе твердотельных накопителей. Добавив четыре модуля Jellyfish R24-E или B24-E, можно создать гибридное хранилище ёмкостью до 2,3 Пбайт. СХД располагает двумя портами 10GbE RJ45 и двумя блоками питания мощностью 650 Вт с возможностью горячей замены. Форм-фактор — 2U. Упомянуты протоколы SMB, NFS, FTP и SSH.
29.03.2025 [10:11], Алексей Степин
Bolt Graphics анонсировала универсальную видеокарту со слотами SO-DIMM, которая может потягаться с RTX 5080Все современные графические ускорители предлагаются с жёстко заданным при производстве объёмом видеопамяти, а в наиболее производительных моделях память типа HBM вообще интегрирована на одной с основным кристаллом подложке. Однако требования к объёму памяти в последнее время растут быстрее, а за дополнительный объём вендор просят всё больше. Кардинально иной подход предлагает компания Bolt Graphics, недавно анонсировавшая серию ускорителей Zeus. Несмотря на «ИИ-пандемию», Bolt Graphics в своём анонсе не делает упор на искусственный интеллект, а называет Zeus первым GPU, специально созданным для целей HPC, рендеринга, трассировки лучей и даже компьютерных игр. Что интересно, в основе Zeus лежит не некая закрытая архитектура: скалярная часть нового GPU построена на базе спецификации RISC-V RVA23, векторная представлена FP64 ALU на базе несколько модифицированной RVV 1.0. Прочие функции реализованы путём кастомных расширений и отдельных блоков-ускорителей. Все они пользуются общим кешем объёмом 128 Мбайт. Дополняет картину блок телеметрии и внутренний интерконнект для общения с другими вычислительным блоками. Используется чиплетный подход. Базовый «строительный блок» Zeus 1c26-032 включает GPU-чиплет, который соединён с 32 Гбайт набортной памяти LPDDR5x (273 Гбайт/с) и контроллером внешней памяти DDR5 (90 Гбайт/с), т.е. при желании можно установить ещё 128 Гбайт RAM (два модуля SO-DIMM). В GPU-чиплет встроены контроллеры DisplayPort 2.1a и HDMI 2.1b, а с внешним миром он общается посредством IO-чиплета, с которым он соединён 256-Гбайт/с каналом. IO-чиплет предлагает необычный набор портов. Помимо сразу двух интерфейсов PCIe 5.0 x16 (64 Гбайт/с каждый) имеется выделенный порт RJ-45 для BMC и 400GbE-порт QSFP-DD. Наконец, есть аппаратный блок видеокодирования, способный справиться с двумя потоками 8K@60 AV1/H.264/H.265. Заявленный уровень производительности в векторных FP64/FP32/FP16-вычислениях составляет 5/10/20 Тфлопс, а в матричных INT16/INT8 — 307,2/614,4 Топс. Аппаратный блок ускорения лучей (path tracing) выдаёт до 77 гигалучей. Для сравнения: NVIDIA RTX 5090 способна выдавать 32 гигалуча, а FP64-производительность составляет 1,6 Тфлопс. В то же время в расчётах пониженной точности актуальные решения NVIDIA всё равно быстрее Zeus 1c26-032. Однако у новинки есть важное преимущество — её уровень TDP составляет всего 120 Вт. Второй интерфейс PCIe 5.0 x16 можно использовать для прямого объединения двух карт. Вариант ускорителя с двумя чиплетами носит название Zeus 2c26-064/128, а с четырьмя — 4c26-256. Последние числа обозначают объём распаянной памяти LPDDR5X. Что касается расширяемой памяти, то количество доступных разъёмов SO-DIMM также зависит от модели и составляет до восьми, так что во флагманской конфигурации базовые 256 Гбайт LPDDR5x можно дополнить аж 2 Тбайт DDR5. Производительность с увеличением количеств GPU-чиплетов растёт практически пропорционально, но есть некоторые другие нюансы. Так, в Zeus 2c26-064 и Zeus 2c26-128 (оба варианта имеют TDP 250 Вт) есть только один IO-чиплет, а GPU-чиплеты объединены шиной со скоростью 768-Гбайт. Zeus 4c26-256 имеет сразу четыре I/O чиплета в составе, которые дают восемь контроллеров PCIe 5.0 x4 (один чиплет, совокупно 32 линии) и шесть 800GbE-портов OSFP (три чиплета). Между собой GPU-чиплеты объединены шиной со скоростью 512-Гбайт/с. Каждый из них соединён с собственным IO-чиплетом на скорости 256 Гбайт/с. Теплопакет флагмана составляет 500 Ватт, ускоритель, если верить Bolt Graphnics, развивает 20 Тфлопс в режиме FP64, почти 2500 Топс на вычислениях FP8 и способен обрабатывать до 307 гигалучей. Разработчики явно заложили в своё детище широкие возможности кластеризации, о чём свидетельствует наличие мощной сетевой подсистемы. Поддерживаются как скромные конфигурации из двух GPU, соединённых непосредственно по Ethernet 400GbE, так и масштабные системы уровня стойки, содержащей 80 плат Zeus 4c26-256, соединённых как с коммутатором, так и напрямую друг с другом. Такой кластер потребляет 44 кВт, но зато способен обеспечивать запуск крупных физических симуляций или обучение ИИ моделей за счёт огромного массива общей памяти, составляющего 160 Тбайт. Вычислительная производительность такого кластера достигает 1,6 Пфлопс в режиме FP64 и 196 Попс в режиме FP8. Одной из особенностей новинок является трассировщик лучей Glowstick, способный работать в режиме реального времени практически во всех современных пакетах 3D-моделирования или видеоредактирования, таких как Maya, 3ds Max, Blender, SketchUp, Houdini и Nuke. Он будет дополнен фирменной библиотекой Bolt MaterialX, содержащей более 5000 текстур высокого качества. А благодаря поддержке стандарта OpenUSD он сможет легко интегрироваться в любую цепочку рендеринга и пост-обработки. Также запланирован электромагнитный симулятор Bolt Apollo. Обещаны фирменные драйверы Vulkan/DirectX и SDK с использованием LLVM. Ранний доступ к комплектам разработчика Bolt Graphics наметила на IV квартал текущего года. В III квартале 2026 года должны появиться 2U-серверы на базе Zeus, а массовые поставки серверов и PCIe-карт начнутся не ранее IV квартала того же года. Пока сложно сказать, насколько хорошо новая архитектура себя проявит, но если верить предварительным тестам Zeus, выигрыш в сравнении с существующими ускорителями существенен, особенно в энергопотреблении.
29.03.2025 [10:01], Сергей Карасёв
Квартальные затраты на облачную инфраструктуру выросли вдвое на фоне бума ИИПо оценкам компании International Data Corporation (IDC), мировые затраты на облачную инфраструктуру в IV квартале 2024 года достигли $67 млрд: это на 99,3 %, т.е. практически в два раза, больше по сравнению с аналогичным периодом предыдущего года. При этом необлачный сегмент показал рост на 25,8 % — до $22 млрд. Аналитики учитывают продажи серверов и СХД для выделенных и публичных облачных платформ. Главным драйвером отрасли является ИИ, в частности, «рассуждающие» модели и агенты ИИ. Облачные провайдеры активно закупают дорогостоящие системы с ускорителями на базе GPU, а также инвестируют средства в расширение сетей дата-центров. Расходы на публичную облачную инфраструктуру достигли $57 млрд в IV квартале 2024 года, увеличившись на 124,4 % по сравнению с предыдущим годом. В секторе выделенных облаков отмечен рост на 21,8 % в годовом исчислении — до $10 млрд. Таким образом, на публичные платформы пришлось 64,0 % от общих затрат. В географическом разрезе расходы на облачную инфраструктуру в последней четверти 2024 года увеличились во всех регионах. В частности, максимальный рост зафиксирован в Канаде и США — плюс 151,8 % и 125,3 % в годовом исчислении соответственно. Китай, Япония, Азиатско-Тихоокеанский регион (за исключением КНР и Японии), Западная Европа, Ближний Восток / Африка, а также Латинская Америка показали прибавку в 99,6 %, 76,2 %, 48,0 %, 36,8 %, 28,1 % и 14,3 % соответственно. В Центральной и Восточной Европе отмечено увеличение на 5,6 %. IDC прогнозирует, что в 2025 году расходы на облачную инфраструктуру поднимутся на 33,3 % по сравнению с 2024-м, составив $271,5 млрд. При этом публичные платформы покажут рост на 25,7 % в годовом исчислении — до $213,7 млрд. В сегменте выделенных облаков ожидается прибавка около 71,8 % — до $57,8 млрд. Расходы на необлачную инфраструктуру, по мнению IDC, в 2025 году снизятся на 4,9 %, составив $68,1 млрд.
28.03.2025 [18:01], Руслан Авдеев
Crusoe привлекла $225 млн на закупку чипов NVIDIA для развития облачной ИИ-инфраструктурыКомпания Crusoe получила кредитную линию в объёме $225 млн для расширения своего облака. Раунд возглавила частная кредитная структура Upper90 Capital Management, а участвовали в сборе средств British Columbia Investment Management Corporation, FS Investments, King Street Capital Management, Liberty Mutual Investments и ORIX USA, сообщает Datacenter Dynamics. Более всего Crusoe сегодня известна строительством дата-центров, также компания управляет облачным сервисом, доступным корпоративным клиентам, желающим арендовать ИИ-инфраструктуру. Привлечённые средства потратят на приобретение ИИ-ускорителей NVIDIA и вспомогательной инфраструктуры для расширения облаков оператора. В компании заявляют, что новые средства будут способствовать расширению облака Crusoe Cloud, призванного упростить и ускорить разработку ИИ для каждой компании-клиента. Давнее стратегическое партнёрство с Upper90 сыграло важную роль в масштабировании технологий Crusoe для удовлетворения спроса на облака. По данным пресс-службы Crusoe, последний раунд финансирования развивает успехи компании, достигнутые после декабрьского раунда серии D на сумму $600 млн. ![]() Источники изображения: Alexander Grey/unsplash.com В своё время компания начинала как бизнес, занимавшийся добычей криптовалют и размещала модульные ЦОД неподалёку от нефтегазовой инфраструктуры для использования в качестве топлива для генераторов попутного природного газа. В последние годы она переключилась на работу с ИИ-инфраструктурой и строит большой ЦОД в Техасе совместно с Oracle для OpenAI, намеренной реализовать проект Stargate. Также сообщалось о совместном проекте с Chirisa и PowerHouse стоимостью $5 млрд, предусматривающем строительство ЦОД на этой территории США, в основном для CoreWeave. Наконец, совсем недавно она объявила о полном отказе от своего криптомайнингового бизнеса — оставшиеся активы проданы NYDIG. Ранее сообщалось, что Crusoe получит доступ к 4,5 ГВт электричества, вырабатываться которое будет за счёт природного газа. Проект реализован совместно с инвесторами из Engine No.1. Предполагается использовать мощности для питания новых ИИ ЦОД, некоторые из которых, возможно, построят для Stargate. Для Crusoe Cloud арендовано помещение ЦОД ICE02 в Исландии, партнёрское соглашение заключили и с Digital Realty. Стоит отметить, что Upper90 была одним из первых спонсоров Crusoe, кредит на оборудование компания предоставила последней ещё в 2019 году. В Upper90 подчеркнули, что Crusoe сегодня находится на переднем крае облачных ИИ-вычислений и решений в области экоустойчивой энергетики. Представители инвестора заявили, что заняты структурированием инновационного финансирования и гордятся углублением связей с Crusoe.
28.03.2025 [16:07], Руслан Авдеев
Public Power Corp (PPC) представила план строительства ЦОД в старых угольных шахтах ГрецииНаходящаяся в государственной собственности Греции компания Public Power Corp (PPC) представила план строительства дата-центров в закрытых шахтах, где ранее добывался бурый уголь. Эти шахты, принадлежащие PPC, расположены в области Западная Македония, сообщает Datacenter Dynamics. Проект предусматривает инвестиции в размере €5 млрд ($5,38 млрд) и включает строительство дата-центра мощностью 300 МВт на первом этапе. В компании уточнили, что в дальнейшем кампус может быть расширен до 1 ГВт. Дата-центр будет питаться от электростанции на природном газе и солнечной энергии, а также получит аккумуляторное энергохранилище (BESS) и хранилище для накопительной гидроэнергетики. PPC планирует перевести свою последнюю угольную электростанцию Ptolemaida 5 на природном газ с возможностью перехода на водород в будущем. Объявление компании последовало за заявлением о намерении полностью свернуть работу угольной электростанции к 2026 году. ![]() Источник изображения: Pedro Henrique Santos/unsplash.com Дополнительно PPC рассчитывает построить солнечную электростанцию мощностью до 1,3 ГВт на территории шахт Amyndaio и Ptolemaida, а также установить BESS на 300 МВт и реализовать два проекта ГАЭС мощностью 320 МВт и 240 МВт. Что касается дата-центра, PPC ведёт переговоры с несколькими потенциальными партнёрами, однако их имена пока не раскрываются. В последние месяцы PPC всё активнее изучает рынок ЦОД как перспективное направление для роста. В конце прошлого года, совместно со строителем ЦОД Edgnex, компания анонсировала планы по строительству дата-центра мощностью 12,5 МВт в Афинах (Греция). Первая фаза этого проекта предполагает инвестиции в размере €150 млн ($161,5 млн) с возможностью масштабирования объекта до 25 МВт в будущем. Бывшие шахты нередко находят применение в индустрии ЦОД и смежных отраслях. Осенью 2023 года сообщалось, что итальянцы построят ЦОД Trentino Data Mine в доломитовой шахте Сан-Ромедио. В январе 2024 года появилась информация о том, что заброшенные шахты могут стать хранилищами «мусорного» тепла эдинбургского суперкомпьютера. В том же месяце — о том, что дата-центр Data Center Ridge охладят водой из заброшенных шахт. Более того, в конце 2024 года в Итальянских Альпах планировалось построить первый в Европе дата-центр в действующей шахте.
28.03.2025 [13:24], Руслан Авдеев
5 Экзабайт для ИИ: OpenAI может построить специальный дата-центр для хранения за миллиарды долларовКомпания OpenAI может построить дата-центр для хранения данных стоимостью миллиарды долларов, желая снизить зависимость от облачных провайдеров. Разработчик ChatGPT намерен закупить комплектующие и ПО для хранения 5 Эбайт, сообщает The Information. Для размещения необходимой инфраструктуры рассматривается строительство нового дата-центра, доложили журналистам анонимные источники. Впрочем, план также может быть частью стратегии по давлению на Microsoft и других облачных провайдеров для заключения с ними сделок на более выгодных условиях. Не так давно Microsoft, имеющая договорные обязательства с OpenAI, разрешила той пользоваться сторонними облаками. Руководство OpenAI, по слухам, заявило сотрудникам, что компания намерена увеличить объём доступных вычислительных ресурсов для разработчиков до конца года — без учёта ускорителей и сопутствующие инфраструктуры для работы ChatGPT и других продуктов. Также компания надеется утроить общую ёмкость ЦОД, доведя её до 2 ГВт. Сюда входят облачные серверы, которые она арендует у Microsoft. Разработка новых ИИ-моделей требует больших СХД. Если новый ЦОД будет построен, он, вероятно, будет напрямую связан с ИИ-мегапроектом Stargate, совместной инициативой OpenAI, SoftBank и Oracle, а также арабского инвестора MGX — предполагается потратить на инфраструктуру до $500 млрд. ЦОД для хранения данных стремятся строить на территории кампусов с прочей цифровой инфраструктурой, а не выделять отдельные площадки. OpenAI рассматривает возможность размещения хранилища возле объекта первой фазы проекта Stargate, который уже строится в Техасе. Как именно компания намеревается финансировать эти покупки и дополнительное строительство, пока неизвестно. В прошлом году она привлекла $6,6 млрд и теперь ожидает раунд финансирования на $40 млрд, который обеспечит ей капитализацию в $340 млрд. Microsoft была единственным облачным провайдером OpenAI с тех пор, как начала инвестировать в компанию в 2023 году, но требования к вычислительным мощностям растут так быстро, что теперь OpenAI пришлось дополнительно вести дела с Oracle и CoreWeave для обеспечения работы Stargate. |
|