Материалы по тегу: ии
13.08.2025 [14:39], Руслан Авдеев
Нужно больше меди: рост дата-центров усугубит нехватку и так дефицитного металлаПо мнению экспертов BloombergNEF (BNEF), устойчивый рост спроса со стороны дата-центров ускорит потенциальное возникновение существенного дефицита на мировом рынке меди уже во второй половине текущего десятилетия. При этом к 2035 году дефицит, вероятно, достигнет 6 млн т. Аналитики BNEF заявили, что для строительства ИИ ЦОД требуется всё больше меди, при этом поставки металла, являющегося ключевым компонентом в самых разных продуктах, от сантехники до силовых кабелей и электромобилей, ограничены из-за многолетнего недофинансирования. Как следует из отчёта, около 6 % капитальных затрат ЦОД может приходиться именно на медь. Цена этого металла, к 2028 году, вероятно, достигнет пика и составит $13,5 тыс. за тонну. По мнению экспертов, расширение мощностей ИИ ЦОД усиливает давление на рынок, на котором и без того сложилась напряжённая ситуация. Проблема ещё и в том, что использование меди в секторах вроде передачи электроэнергии и ветроэнергетики должно удвоиться к 2035 году, а предложение на рынке растёт медленнее, чем необходимо. ![]() Источник изображения: Joanna Kosinska/unsplash.com Согласно докладу BloombergNEF, спрос на медь (косвенно со стороны ЦОД) в течение следующего десятилетия будет составлять 400 тыс. т ежегодно. Пик на уровне 572 тыс. т будет достигнут в 2028 году. В течение следующего десятилетия общий объём использования меди в ЦОД, вероятно, превысит 4,3 млн т. В то же время предложение к 2035 году достигнет 29 млн т — на 6 млн т меньше ожидаемого спроса. В апреле 2024 года появилась информация, что рост ИИ и ЦОД увеличит потребление дорожающего металла на 1 млн т в 2030 году. В ноябре того же года эксперты заявили, что развитие генеративного ИИ всё больше зависит от доступности качественных данных, пресной воды, электроэнергии и, что немаловажно, чистой меди, рост дефицита которой прогнозировался уже тогда.
13.08.2025 [13:24], Руслан Авдеев
Южнокорейский разработчик ИИ-чипов DeepX объединлся с Baidu для выхода на рынок КНРЮжнокорейская DeepX, разрабатывающая ИИ-ускорители, заключила соглашение с китайским гиперскейлером Baidu. Компании намерены оптимизировать разрабатываемую Bailu ИИ-платформу Ernie LLM для оборудования DeepX, сообщает EE Times. В DeepX заявляют, что речь идёт о первом официальном сотрудничестве компании с одной из ключевых китайских ИИ-экосистем. Интеграция ускорителей DeepX с моделями Baidu PaddlePaddle и Ernie позволят южнокорейской компании получить прямой доступ к одному из крупнейших сообществ разработчиков ИИ в Китае. Это ускорит выход стартапа на китайский рынок и обеспечит надёжную проверку его технологий одним из мировых лидеров в сфере искусственного интеллекта. Недавно компания привлекла Morgan Stanley для управления очередным раундом финансирвоания. В прошлом году в ходе раунда финансирования серии C компания привлекла порядка $80 млн, теперь, по данным Bloomberg, она намерена получить значительно больше — незадолго до выхода на IPO в 2027 году. Компания считает себя конкурентом NVIDIA в некоторых секторах. PaddlePaddle представляет собой открытую платформу для глубокого обучения, разработанную компанией Baidu. Она является ключевым фреймворком для ИИ в Китае и представляет собой аналог западным решениям вроде PyTorch или Jax. PaddlePaddle включает готовые предобученные модели, инструменты для разработки и оптимизации ИИ-приложений. В экосистеме PaddlePaddle более 10 млн разработчиков и 200 тыс. предприятий, которые работают над сценариями использования ИИ для обработки зрения, речи и естественного языка. Также предлагается «бесшовная интеграция» с китайскими облачными платформами. ![]() Источник изображения: DeepX Китай — один из крупнейших быстрорастущих рынков ИИ в мире, особенно в сфере промышленного ИИ, робототехники и умных устройств. Выход на китайский рынок при поддержке Baidu даёт DeepX возможность быстро масштабировать внедрение. Поэтому изначально партнёрство в рамках технологической системы PaddlePaddle будет сосредоточено на промышленном ИИ. Планируется, что компании станут совместно разрабатывать промышленные продукты, обеспечив совместимость технологий. Сообщается, что компании сосредоточатся на промышленных приложениях для распознавания символов (OCR), дронов, робототехники, также изучаются и варианты инновационного использования — в умных городах, автопромышленности и потребительской электронике. Сотрудничество закладывает основу для широкого внедрения ИИ в секторах, где энергоэффективность имеет критически важное значение. Перед подписанием соглашения DeepX продемонстрировала работу ускорителя DX-M1 с моделями Baidu — PP-OCR пятого поколения и VLM. Теперь команды Baidu, включая PaddlePaddle и Ernie, будут адаптировать свои модели для чипов DX-M1 и будущего DX-M2. Прототипы DX-M2, выполненные по 2-нм техпроцессу Samsung, собираются использовать для демонстрации крупной модели ERNIE-4.5-VL-28B-A3B. DeepX также собрала 10 моделей на базе OpenVino для DX-M1, чтобы их можно было использовать совместно с экосистемой PaddlePaddle. По имеющимся данным, существующие клиенты DeepX в Китае работают в сфере промышленных ПК, робототехники и модулей интеллектуальных камер. Благодаря экосистеме Baidu предполагается ускорить коммерческое внедрение, начиная с текущего года.
12.08.2025 [16:32], Сергей Карасёв
Supermicro представила 4U-сервер на базе NVIDIA HGX B200 с СЖОКомпания Supermicro анонсировала GPU-сервер SYS-422GS-NBRT-LCC для ресурсоёмких нагрузок, включая задачи ИИ, построенный на аппаратной платформе Intel Granite Rapids. Устройство оборудовано системой прямого жидкостного охлаждения DLC-2. Новинка выполнена в форм-факторе 4U. Допускается установка двух процессоров Xeon 6700P с TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти: максимальный объём ОЗУ составляет 4 Тбайт в случае DDR5-6400 ECC и 8 Тбайт при использовании DDR5-5200 ECC. Сервер располагает восемью слотами PCIe 5.0 x16 для низкопрофильных карт расширения и двумя разъёмами PCIe 5.0 x16 для карт полной высоты и половинной длины (FHHL). Сервер оснащён ИИ-ускорителями NVIDIA HGX B200 поколения Blackwell в конфигурации 8 × SXM. Предусмотрены восемь фронтальных отсеков для накопителей E1.S с поддержкой горячей замены, а также два отсека для M.2 NVMe SSD. Имеются два сетевых порта 10GbE (RJ45) на основе контроллера Intel X710-AT2. Система может быть укомплектована восемью однопортовыми адаптерами NVIDIA ConnectX-7 NIC или NVIDIA BlueField-3 SuperNIC, а также двумя двухпортовыми DPU NVIDIA BlueField-3. Реализованы интерфейсы Mini-DP и D-Sub. Питание обеспечивают четыре блока мощностью 6600 Вт с сертификатом 80 PLUS Titanium. Диапазон рабочих температур — от +10 до +35 °C. Помимо системы DLC-2, установлены шесть вентиляторов диаметром 80 мм. Габариты сервера составляют 174 × 448 × 991,4 мм, масса — 107 кг. ![]() Источник изображения: Supermicro
11.08.2025 [12:22], Руслан Авдеев
Brookfield: в течение десяти лет мощность ИИ ЦОД вырастет на порядок, а расходы на ИИ-инфраструктуру превысят $7 трлнИнвестиционный гигант Brookfield Asset Management выступил с прогнозом дальнейшего роста рынка дата-центров с небольшим риском «чрезмерного» развития, обусловленного бумом ИИ. Компания уже дала жизнь специальной стратегии развития ИИ-инфраструктуры и опубликовала документ, в котором изложила векторы развития сектора, сообщает Datacenter Dynamics. Сама Brookfield активно вкладывает значительные средства в инфраструктуру ЦОД, только в июне 2025 года она сообщала о готовности выделить $10 млрд на шведский ИИ ЦОД. В феврале она заявляла, что потратит €20 млрд ($23 млрд) на ИИ-инфраструктуру во Франции. Brookfield частично или полностью владеет Compass, Centersquare, Data4, Ascenty, Digtal Connexion и DCI, а также активно инвестирует в энергетику. Основываясь на данных собственного внутреннего исследования, компания пришла к выводу, что общие расходы на ИИ-инфраструктуру превысят $7 трлн в следующие десятилетие. Ранее McKinsey прогнозировала, что на эти цели ещё до конца текущего десятилетия может уйти до до $5 трлн. По прогнозам Brookfield, $4 трлн пойдут на чипы (включая производство и цепочки поставок), $2 трлн — на ЦОД, а $500 млрд — на электроэнергию и сети энергопередачи. Ещё $500 млрд потратят на технологии более общего назначения, вроде выделенных ВОЛС, системы охлаждения и робототехнику. Как сообщают в Brookfield, для ИИ находится всё больше сфер применения, он становится всё более коммерчески привлекательным, а повышение его эффективности приведёт к дальнейшему увеличению спроса. Пока шансы на «перепроизводство» мощностей крайне малы. В компании ожидают, что к концу года ИИ ЦОД («фабрики ИИ») будут располагать мощностями порядка 15 ГВт, тогда как в конце 2024 года речь шла о 7 ГВт. ![]() Источник изображения: Invest Europe/unsplash.com В следующие десять лет мощности должны вырасти ещё на 75 ГВт, так что к 2034 году их общая мощность приблизится к 82 ГВт. Другими словами, за 10 лет мощности вырастут более чем в 10 раз. Установленная база ИИ-ускорителей с 2024 по 2034 гг. вырастет приблизительно в семь раз, с 7 млн в 2024 году до 45 млн к 2034 году. При этом чипы всё чаще будут применяться не для обучения, а для инференса — к 2030 году на инференс придётся порядка 75 % спроса на ИИ-вычисления. В Brookfield отмечают, что появление сложных ИИ-агентов дополнительно увеличит потребность в инференсе, поэтому всё больше проектов ЦОД будут оптимизироваться именно для инференса, а не для обучения ИИ-моделей. Значительная часть соответствующих проектов будет реализована с помощью компаний, предлагающих «ускоритель как услугу» — вроде CoreWeave. Рост соответствующего рынка вырастет с приблизительно $30 млрд в 2025 году до более $250 млрд к 2034 году, поскольку компании разных масштабов стремятся получить доступ к ИИ-вычислениям без капитальных затрат. В Brookfield подчеркнули, что строителям дата-центров уже стоит вносить изменения в их архитектуру с учётом возможных изменений. Оптимальными в долгосрочной перспективе будут модульные подходы, позволяющие быстро модернизировать систему питания и охлаждения по мере развития чипов и прочих технологий.
11.08.2025 [10:55], Руслан Авдеев
NVIDIA и AMD будут выплачивать правительству США 15 % выручки от продажи ИИ-ускорителей в КитаеNVIDIA и AMD пришли к соглашению с американскими властями, в результате которого компании будут обязаны отдавать правительству США 15 % выручки от продажи ИИ-ускорителей в КНР. За это они будут получать лицензии на продажу полупроводников в Поднебесную, сообщает The Financial Times. Как свидетельствуют «осведомлённые источники», экспортные лицензии для китайского рынка получены на днях именно на таких условиях. По словам источника из числа чиновников, NVIDIA согласилась платить за поставки H20 в Китай, AMD придётся раскошелиться за продажи MI308. Как сообщает издание, Министерство торговли США начало выдавать экспортные лицензии на H20 в минувшую пятницу, через два дня после встречи главы NVIDIA Дженсена Хуанга (Jensen Huang) с президентом США Дональдом Трампом (Donald Trump). Ранее Хуанг жёстко раскритиковал ограничения на поставки ИИ-ускорителей в Китай, заявив, что это станет для КНР лишь дополнительным стимулом для развития собственных технологий. По данным источников, лицензии начали выдавать и AMD. Стоит отметить, что такое соглашение считается «беспрецедентным». По словам экспертов, ни одна компания в истории США не соглашалась платить часть выручки за получение экспортных лицензий. Впрочем, вполне вероятно, что администрация США собирает все доступные средства для реиндустриализации самих Соединённых Штатов. Сами вендоры ситуацию не комментируют и лишь заявили, что следуют установленным правительством правилам для обеспечения своего присутствия на мировых рынках. ![]() Источник изображения: Priscilla Du Preez/unsplash.com По словам аналитиков Bernstein, до введения экспортных ограничений прогнозировалось, что NVIDIA могла бы продать в 2025 году Китаю порядка 1,5 млн ускорителей H20, что принесло бы около $23 млрд выручки. В апреле администрация США объявила о запрете поставок H20 в Китай, но этим летом изменила своё решение после встречи с Хуангом. Однако Бюро промышленности и безопасности (BIS) так и не начало выдавать экспортные лицензии до прошлой пятницы. Некоторые американские эксперты по безопасности подчёркивают ошибочность решения, утверждая, что H20 поможет военным КНР и подорвёт лидерство США в сфере ИИ. Некоторые горько шутят, что дальше, вероятно, стоит ожидать продаж Китаю F-35 при условии уплаты 15 % комиссии правительству. Не так давно 20 экспертов по безопасности направили в администрацию письмо, в котором призывали на выдавать лицензии на продажи H20 в Китай. По их словам, это всё ещё достаточно мощный ускоритель, который в конечном счёте будет использоваться китайскими военными. В самой NVIDIA такие предположения опровергают. В субботу, 9 августа, было заявлено, что H20 уже несколько месяцев не поставляются в Китай, но в компании надеются, что экспортные правила позволят Америке конкурировать в Китае и во всём мире. Американский стек ИИ-технологий может стать мировым стандартом при глобальном распространении своих технологий. Сейчас между США и Китаем ведутся торговые переговоры, которые, как надеются в администрации США, будут содействовать организации саммита между президентом Трампом и председателем КНР Си Цзиньпином. Министерству торговли уже приказали заморозить новые меры экспортного контроля в отношении КНР, чтобы не испортить отношения с Пекином. Опасения экспертов возникли на фоне усилий КНР, предпринимаемых чтобы смягчить контроль над поставками HBM-чипов, которые являются важнейшим компонентом современных ИИ-ускорителей. Ещё до ослабления запретов выяснилось, что в КНР «просочились» передовые ускорители NVIDIA на $1 млрд, а в конце июля появилась новость, что NVIDIA заказала у TSMC производство 300 тыс. ИИ-ускорителей H20 в ответ на высокий спрос в Китае — в дополнение к уже имеющимся запасам.
11.08.2025 [09:55], Руслан Авдеев
Meta✴ выбрала Pimco и Blue Owl для финансирования расширения ЦОД на $29 млрдMeta✴ Platforms назвала Pacific Investment Management (Pimco) и Blue Owl Capital главными инвесторами расширения ЦОД в Луизиане на сумму $29 млрд, сообщает Bloomberg. По словам источников, пожелавших сохранить анонимность, Pimco обеспечит заёмные средства на сумму $26 млрд, а Blue Owl будет отвечать за акционерный капитал на $3 млрд. Заёмная доля, вероятно, будет выпущена в формате инвестиционных облигаций, обеспеченных активами ЦОД. Meta✴ имеет партнёрское соглашение с Morgan Stanley для привлечения средств в рамках конкурентного инвестиционного процесса с привлечением некоторых из крупнейших игроков рынка частных кредитных инвестиций. До финального раунда переговоров за право возглавить раунд финансирование боролись также Apollo Global Management и KKR. На более позднем этапе могут быть привлечены и другие инвесторы. Пока представители Meta✴, Pimco, Blue Owl и Morgan Stanley новости не комментируют. Blue Owl управляет активами приблизительно на $192 млрд. Компания начала активно инвестировать в ЦОД только в прошлом году, заодно приобретая инвестирующие в ЦОД структуры и формируя новые. Так, она уже принимает участите в строительстве дата-центров CoreWeave и Crusoe (OpenAI Stargate). Pimco же является инвестиционной компанией, входящей в Allianz Group, которая имеет немало собственности в Европе. В 2023 году компания запустила там новую платформу ЦОД Apto. ![]() Источник изображения: Samson/unsplash.com По данным Datacenter Dynamics, в последнем отчёте о финансах Meta✴ отметила, что готова привлекать партнёров к созданию ЦОД. Глава компании Марк Цуерберг (Mark Zuckerberg) добавил, что намерен потратить «сотни миллиардов долларов» на ИИ ЦОД — первый кластер Prometheus должны ввести в эксплуатацию в 2026 году. Также готовится 2-ГВт кампус Hyperion в Луизиане недалеко от Монро (Monroe) в Луизиане. Для питания этого кампуса построят ЛЭП за $1,2 млрд. Частные инвестиционные структуры активно стремятся вкладывать капитал в сделки, обеспеченные реальными, физическими активами или — совместно с компаниями с более высоким рейтингом. Это помогает диверсифицировать бизнес. По оценкам консалтинговой McKinsey & Co, к 2030 году дата-центрам потребуется $6,7 трлн для удовлетворения мирового спроса на вычислительную мощность. Финансирование поможет Meta✴ ускорить разработку ИИ, который, как утверждают в компании, уже приносит «значительный» доход. По оценкам Meta✴, в следующем году расходы будут расти быстрее, особенно с учётом повышенного интереса компании к ИИ-инфраструктуре и привлечения узкоспециализированных технических специалистов в соответствующей сфере. В Meta✴ ожидают появления моделей, способных привлечь значительное внешнее финансирование для поддержки крупномасштабных проектов ЦОД. Прочие техногиганты уже взаимодействуют с инвестиционными компаниями для финансирования ИИ ЦОД. Так, Microsoft объединилась с BlackRock, чтобы привлечь $30 млрд инвестиций.
08.08.2025 [12:44], Руслан Авдеев
OpenAI похвасталась, что на GPT-5 «ушло» 200 тыс. ИИ-ускорителей, а с 2024 года её вычислительные мощности выросли в 15 разОдновременно с премьерой новейшей ИИ-модели GPT-5 компания OpenAI рассказала некоторые подробности о своей инфраструктуре. В частности, появилась информация о том, что с 2024 года компания нарастила вычислительные мощности в 15 раз, сообщает Datacenter Dynamics. По словам представителя компании, только за последние 60 дней было развёрнуто более 60 кластеров, сформирована цифровая магистраль, пропускающая больше трафика, «чем целые континенты», а также задействовано более 200 тыс. ИИ-ускорителей для запуска LLM GPT-5 для 700 млн человек. Дополнительно ведётся подготовка ещё 4,5 ГВт мощностей для «сверхразума». Стало известно и о вакансиях для проекта Stargate, курируемого OpenAI. Было заявлено, что сегодня небольшая команда строит ИИ-инфраструктуру планетарного масштаба беспрецедентными темпами. Она нанимает специалистов в сфере обработки данных, энергетики, ЦОД, планирования новых мощностей, развития бизнеса, финансов и др. ![]() Источник изображения: Felix Mittermeier/unsplash.com При этом компания «агрессивно» нанимает людей в команду Stargate, при этом преимущественно полагаясь на Oracle. Так, в июле компании подтвердили сделку по аренде 4,5 ГВт для проекта Stargate в США. Как ожидается, сделка будет обходиться в $30 млрд ежегодно. Впрочем, не так давно сообщалось, что OpenAI по-прежнему планирует самостоятельно строить собственные дата-центры. Также компания намерена построить кампус ЦОД Stargete в Объединённых Арабских Эмиратах (ОАЭ) при участии других IT-гигантов, включая Oracle, NVIDIA, Cisco, SoftBank и G42. В Европе компания уже работает над дата-центром в Норвегии совместно с Nscale. Кроме того, она ищет площадки для новых инициатив по всему миру. При этом развитием инфраструктуры занимается в основном сама OpenAI, а сам проект Stargate развивается не так быстро, как планировалось.
08.08.2025 [11:50], Руслан Авдеев
Tesla отказалась от развития ИИ-суперкомпьютеров DojoTesla распускает команду, стоявшую за суперкомпьютером Dojo, сообщает TechCrunch со ссылкой на Bloomberg. Как сообщают анонимные источники, глава проекта Питер Бэннон (Peter Bannon) покидает компанию, а оставшихся участников команды переведут на работу с другими вычислительными проектами Tesla. О закрытии Dojo стало известно после ухода из Tesla порядка 20 сотрудников, основавших собственный ИИ-стартап DensityAI, который займётся разработкой чипов, аппаратного и программного обеспечения для ИИ ЦОД, связанных с робототехникой, ИИ-агентами и автомобильными приложениями. DensityAI основана бывшим руководителем Dojo Ганешем Венкатарамананом (Ganesh Venkataramanan), причём в не самый удачный для Tesla момент, поскольку глава компании Илон Маск (Elon Musk) ранее настоял на том, чтобы акционеры рассматривали компанию как бизнес, занимающийся ИИ и робототехникой. Решение о закрытии Dojo стало значительным изменением стратегии. Ранее Маск утверждал, что суперкомпьютер станет краеугольным камнем для удовлетворения амбиций компании в сфере ИИ и основная цель — добиться полной автономии машин благодаря способности Dojo обрабатывать огромные массивы видеоданных. В 2023 году Morgan Stanley посчитал, что Dojo может поднять капитализацию Tesla на $500 млрд за счёт новых источников дохода — проектов роботакси и программных сервисов. В 2024 году Маск сообщил, что команда Tesla, занятая искусственным интеллектом, «удвоит ставку» на Dojo перед презентацией роботакси. Тем не менее разговоры о Dojo уже в августе того же года постепенно сошли на нет, когда Маск начал продвигать ИИ-кластер Cortex (на базе ускорителей NVIDIA) при штаб-квартире Tesla в Остине (Техас). Проект Dojo включал в себя как суперкомпьютер, так и предполагал собственное производство ИИ-ускорителей. Ещё в 2021 году Tesla во время официального анонса Dojo представила чип D1, который должен был бы использоваться совместно с ускорителями NVIDIA для обеспечения работы Dojo. Также сообщалось, что ведутся работы над чипом D2, в котором будут устранены недостатки предшественника. По данным источников Bloomberg, теперь Tesla намерена сделать ставку преимущественно на NVIDIA, а также других сторонних партнёров вроде AMD, а Samsung будет выпускать чипы на заказ. В прошлом месяце с Samsung подписан контракт на выпуск инференс-чипов AI6, которые будут работать как с автопилотами Tesla, так и использоваться в роботах Optimus и дата-центрах. Ранее Маск намекнул, что в случае с Dojo 3 (D3) и инференс-чипом AI6, речь, возможно, будет идти о едином чипе. Недавно совет директоров Tesla предложил Маску пакет акций на $29 млрд, чтобы тот оставался в Tesla и продвигал ИИ-разработки компании, вместо того чтобы отвлекаться на другие бизнесы.
08.08.2025 [09:13], Руслан Авдеев
Сбавить обороты: Google сократит энергопотребление ИИ ЦОД в периоды пикового спросаGoogle объявила о новых соглашениях с американскими энергокомпаниями Indiana Michigan Power (I&M) и Tennessee Valley Authority (TVA). Договоры направлены на сокращение потребления ИИ ЦОД в периоды высокого спроса, сообщает Tech Republic. Поскольку ИИ-модели становятся всё сложнее, их обучение и запуск требует немало гигаватт энергии, иногда в течение нескольких часов или даже дней подряд, к чему энергосети не всегда готовы. Google в соглашениях с I&M и TVA обязалась переносить или вовсе приостанавливать ИИ-нагрузки небольшой срочности, если энергосеть будет перегружена — например, из-за плохой погоды или высокого спроса. Новый план разработан на основе результатов экспериментального соглашения с Omaha Public Power District (OPPD), в результате которого энергопотребление, связанное с машинным обучением, неоднократно и успешно снижалось в 2024 году. В Google подчёркивают, что подобная гибкость помогает снизить потребности в строительстве новых ЛЭП, электростанций и помогает операторам эффективнее управлять энергосетями. Компания начала внедрять перераспределение нагрузок между своими ЦОД в разных регионах в 2020 году, а два года назад она начала учитывать состояние энергосетей и перемещать или откладывать некритичные нагрузки. Похожую систему создала и Microsoft, правда, в обоих случаях изначально ставилась задача не повышения устойчивости энергосетей, а улучшение экологических показателей. ![]() Источник изображения: Andrey Metelev/unspalsh.com По данным Indiana Michigan Power, по мере добавления в систему новых крупных нагрузок компания вынуждена сотрудничать с клиентами для эффективного управления генерацией и передачей энергии. Способность Google перераспределять рабочие нагрузки будет очень ценными «инструментом» для удовлетворения растущих потребностей в питании. Впрочем, некоторые рабочие нагрузки вроде поиска, карт, задач клиентов Google Cloud или заказчиков из сферы здравоохранения приостановить нельзя, поэтому внедрять технологии «гибкого спроса» будут только на некоторых площадках — там, где это не повлияет на надёжность обслуживания. Как сообщает Datacenter Dynamics, это не первая попытка Google координации с энергетиками и управления ресурсами. В апреле принадлежащий компании проект Tapestry договорился с PJM Interconnection об использовании ИИ для упрощения и ускорения присоединения объектов к энергосети. На первом этапе будут автоматизированы процессы, сегодня выполняющиеся специалистами-планировщиками. Со временем предполагается разработать для электросетей сервис наподобие Google Maps. Помимо Google, некоторые компании в последние месяцы уже объявили о намерении использовать ИИ для «умного» координирования задач в зависимости от спроса на электричество. В мае GridCare объявила о запуске проекта, который позволит находить в действующей энергосети «географические» и «временные» возможности использования электричества, что, по словам компании, позволит сократить время на подключение ЦОД к сети до 6–12 месяцев.
07.08.2025 [17:36], Руслан Авдеев
Dell'Oro Group: мировые капитальные затраты на ЦОД достигнут $1,2 трлн к 2029 году — половина придётся на гиперскейлеровПо расчётам экспертов, капитальные затраты (CAPEX) на дата-центры продолжат расти и достигнут рекордных значений благодаря инвестициям в ИИ-инфраструктуру. Аналитики Dell'Oro Group выступили с прогнозом на ближайшие годы, сообщает Datacenter Dynamics. По данным группы, прогнозируется мировой совокупный среднегодовой темп роста (CAGR) на уровне 21 %, капитальные затраты к 2029 году достигнут $1,2 трлн. Это на $200 млрд больше, чем прогноз от февраля 2025 года. По словам компании, прогноз повышен в связи с быстрым внедрением ИИ. По мнению экспертов, на GPU и ASIC сегодня приходится около трети от общего объёма капитальных затрат на дата-центры, что превращает их в крупнейшие драйверы роста соответствующего рынка. Ожидается, что расходы на вспомогательную инфраструктуру вроде стоек, вычислительных мощностей общего назначения, хранилищих, сетей и здания также окажутся высокими. Ожидается, что на долю крупнейших гиперскейлеров, включая Amazon (AWS), Google, Meta✴ и Microsoft придётся половина расходов. IT-гиганты активно разрабатывают вертикально интегрированные решения полного цикла и кастомизированные архитектуры, чтобы максимизировать производительность ИИ-вычислений и снизить их стоимость. ![]() Источник изображения: Satyawan Narinedhat/unsplash.com Всё это в сочетании с продолжающимися инвестициями со стороны государственного и частного секторов стимулирует волну глобального расширения инфраструктуры ЦОД. Ожидается, что прочие поставщики облачных сервисов, включая т.н. неооблака, будут расти в среднем по 39 % в год. По прогнозам экспертов, в следующие пять лет гиперскейлеры, «необлачные» операторы и колокейшн-провайдеры получат около 50 ГВт новых мощностей. Хотя в 2025 году не исключается кратковременное замедление рынка, ожидается, что долгосрочные инвестиции поддержат рост в течение всего прогнозируемого периода. К 2029 году расходы на обучение ИИ и специальные рабочие нагрузки могут составить около половины расходов на инфраструктуру ЦОД. Столь оптимистичный прогноз появился после новостей о том, что в этом году капитальные расходы на ИИ лидировали в экономике США. В Renaissance Macro Research подчёркивают, что капитальные затраты на ИИ за последние два квартала сделали больший вклад в рост ВВП США, чем все потребительские расходы вместе взятые. В 2025 году на долю крупнейших гиперскейлеров — Amazon, Google, Meta✴ и Microsoft — придётся почти половина капитальных затрат мира на ЦОД. Microsoft намерена потратить на расширение инфраструктуры $80 млрд, Google — $85 млрд, а Meta✴ до $72 млрд. В лидерах Amazon, которая планирует вложит в инфраструктуру рекордные $118 млрд. |
|