Материалы по тегу: ии

04.08.2025 [14:17], Владимир Мироненко

Суперускоритель с «батарейкой» — NVIDIA GB300 NVL72 получили особые блоки питания для сглаживания энергопотребления

NVIDIA представила решение для платформы GB300 NVL72, которое позволяет смягчать колебания напряжения, вызванные синхронной работой тысяч ускорителей (GPU) при работе ИИ-систем, и снижать пиковую нагрузку на сеть до 30 %. Подобные колебания крайне негативно влияют на энергосеть и других потребителей. Новое решение NVIDIA также будет использоваться в системах GB200 NVL72.

В процессе обучения ИИ-моделей тысячи ускорителей работают синхронно и выполняют одни и те же вычисления с разными данными. Эта синхронизация приводит к колебаниям мощности на уровне сети — падению напряжения или появлению излишков энергии при внезапных простоях, в отличие от традиционных рабочих нагрузок ЦОД, где ускорители работают асинхронно и некоррелированные задачи «сглаживают» нагрузку. Meta даже пришлось в качестве временной меры добавить в PyTorch опцию PYTORCH_NO_POWERPLANT_BLOWUP, которая загружает ускорители бессмысленной работой в моменты простоя.

Для решения этой проблемы компания оснастила NVIDIA GB300 блоком питания с конденсаторами, т.е. накопителями энергии, разработанными с привлечением компании LITEON Technology, а также необходимым аппаратным и программным обеспечением. На разных этапах работы системы используется несколько механизмов, включая ограничение мощности, накопление энергии и «сжигание» энергии — функция NVIDIA GPU Burn.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Электролитические конденсаторы обеспечивают равномерное энергопотребление непосредственно в стойке. Они занимают почти половину объёма БП и обеспечивают накопление 65 джоулей энергии на каждый ускоритель. Накопитель (конденсатор) заряжается при низком потреблении энергии ускорителем и разряжается при высоком. Этот своего рода буфер помогает снизить колебания энергопотребления, что продемонстрировано в сравнительных тестах GB200 и GB300 при одинаковой нагрузке. GB300 снижает пиковую нагрузку на сеть на 30 %, обеспечивая при этом аналогичную мощность для ускорителей.

GB300 ограничивает скачки, пошагово увеличивая энергопотребление ускорителя. Ограничение по мощности увеличивается постепенно, в соответствии с возможностями сети. По завершении задания, программный драйвер, реализующий алгоритм сглаживания энергопотребления, активирует аппаратное снижение энергопотребления. Ускоритель продолжает потреблять постоянную мощность благодаря функции NVIDIA GPU Burn, ожидая возобновления нагрузки.

Если нагрузка не возобновляется, ускоритель плавно снижает энергопотребление. Если нагрузка на ускоритель возобновляется, функция NVIDIA GPU Burn мгновенно отключается. После завершения нагрузки ускоритель с помощью NVIDIA GPU Burn постепенно снижает энергопотребление со скоростью, соответствующей возможностям сети, а затем отключается.

Эти параметры контролируются такими настройками, как минимальное энергопотребление в режиме ожидания и время постепенного снижения нагрузки, которые можно настроить с помощью NVIDIA SMI или Redfish. Такой полный контроль энергопотребления снижает нагрузку на электросеть и делает планирование заданий более предсказуемым.

Как отметил ресурс The Futurum Group, благодаря предложенной NVIDIA схеме питания ЦОД больше не нужно строить с учётом пиковых потребностей в мощности. Вместо этого их можно масштабировать ближе к средним показателям использования, что означает возможность размещения большего количества оборудования в том же пространстве или снижение общих затрат на электроэнергию. Суперконденсаторы в качестве энергетического буфера для всего объекта целиком предлагает Siemens, хотя уже есть и более компактные решения размером со стойку.

Кроме того, поскольку сглаживание потребления мощности ограничено стойкой без её подачи обратно в сеть, операторы получают больше контроля над энергопотреблением. Такое сочетание аппаратного и программного обеспечения обеспечивает масштабируемость и делает ЦОД дружественными к энергосети, независимо от того, используют ли они системы GB200 или GB300 NVL72. Как отметил ресурс ServeTheHome, использование дополнительных аккумулирующих модулей в стойке, предложенное LITEON, также поможет более равномерному распределению нагрузки между крупными ИИ-кластерами.

Сантьяго Грихальва (Santiago Grijalva), профессор электротехники и вычислительной техники в Технологическом институте Джорджии, назвал новую технологию «довольно серьёзным событием», учитывая доминирующую роль NVIDIA в этой области. «Но это решение ограничено высококлассными системами NVIDIA, — указал он в электронном письме ресурсу Utility Dive. — Это решение конкурирует с решениями Tesla и аппаратными оптимизациями Meta, предлагая существенное, но не революционное усовершенствование существующих методов управления питанием».

Постоянный URL: http://servernews.kz/1127050
04.08.2025 [10:16], Руслан Авдеев

Новый ИИ ЦОД в Вайоминге будет потреблять больше энергии, чем все дома штата

Согласно расчётам компании Rocky Mountain Power, новый ИИ-объект в Вайоминге, вероятно, будет потреблять больше электричества, чем все жилые дома штата вместе. Это лишь очередное свидетельство тренда, когда ИИ-инфраструктура развивается быстрее, чем может адаптироваться энергетическая инфраструктура. Это ставит новые задачи перед коммунальными службами, правительствами и потребителями, сообщает TechRepublic. На днях сообщалось, что Crusoe и Tallgrass построят в Вайоминге ИИ ЦОД мощностью 1,8 ГВт.

Поскольку обучение ИИ-моделей и инференс становятся всё более ресурсоёмкими задачами, крупные ЦОД меняют подход к энергопотреблению и водопользованию в США. Согласно отраслевым оценкам, на дата-центры уже приходится 4,4 % потребления местного электричества, а к 2028 году оно может вырасти до 12 %. По другим оценкам, в 2028 году на дата-центры США может прийтись уже 12 % энергопотребления всей страны. Некоторые коммунальные компании предупреждают, что спрос на электроэнергию в США может вырасти на 50 % за 5 лет. Отмечается, что с такими темпами роста не может справиться ни один штат.

В некоторых случаях планируется строительство гигаваттных ЦОД. При этом обращение к ИИ обычно дороже простого интернет-поиска — например, типичный запрос в ChatGPT требует около 2,9 Вт·ч, а при стандартном веб-поиске расходуется около 0,3 Вт·ч.

Растущая нагрузка на энергосистему уже ведёт к изменению стратегии местных коммунальных компаний. Так, Pacific Gas & Electric (PG&E) отказалась выводить из эксплуатации три угольные электростанции, а операторы электросетей Техаса экстренно объявили об ожидаемом росте спроса на электричество. Более того, при президенте Дональде Трампе похоже, готовы и вовсе покончить с «зелёной повесткой».

Вайоминг уже стал ключевой локацией для размещения новой ИИ-инфраструктуры благодаря «географической стабильности» и подключению к национальной энергетической магистрали, проложенной вдоль трассы I-80. Компании вроде Microsoft и Meta ведут свою деятельность в штате. Планируемый Meta ЦОД гиперскейл-уровня площадью более 364 га недалеко от Шайенна (Cheyenne) должен заработать в течение трёх лет.

 Источник изображения: Gustavo Quepóns/unsplash.com

Источник изображения: Gustavo Quepóns/unsplash.com

Немалую роль играет и связанное с ИИ потребление воды, особенно в засушливых регионах. Многие ИИ-ЦОД применяют испарительные системы охлаждения, потребляющие немало водных ресурсов. Каждый ЦОД, по некоторым оценкам, может потреблять 2 тыс. м³ воды в день, что приблизительно эквивалентно водопотреблению 6,5 тыс. американских домохозяйств.

Особенно сложная ситуация обстоит в западных штатах США, таких как Невада, Юта и Колорадо, где уже наблюдается дефицит воды. Так, в некоторых районах Невады прогнозируется спрос на электричество, который может потребовать расширения энергосистемы штата на 40 % в следующие 10 лет. Front Range в Колорадо намерена утроить мощность ЦОД, при этом каждый новый ЦОД будет потреблять 160 МВт — общее энергопотребление будет больше, чем у сталелитейных заводов и горнодобывающих предприятий.

Экономические и экологические последствия такого прогресса могут переложить на плечи потребителей. ЦОД США, возможно, скоро будут потреблять больше энергии, чем целые страны. По одной из оценок, в будущем на них придётся столько же энергопотребления, сколько потребляла Польша в 2023 году. Один Amazon, если построит все запланированные объекты, будет потреблять до 49 ТВт·ч ежегодно, что примерно сопоставимо с энергопотреблением всей Невады в 2024 году.

Хотя отдельные штаты уже начинают выпускать законы, посвящённые развитию энергетики и «зелёной» энергетики для потребителей с высоким спросом, к 2030 году расходы на соответствие требованиям к инфраструктуре могут достичь $2 трлн. При этом генерация энергии приведёт к расходам на здравоохранение в объёме $5,7-9,2 млрд из-за увеличения выбросов, связанных с энергетикой.

По мнению экспертов, издержки, вероятно, будут переложены на плечи потребителей — в связи с повышением счетов на коммунальные услуги и экологическими последствиями. По мере распространения ИИ его энергопотребление может напрямую влиять на бюджеты домохозяйств, отражаясь не только в тратах на цифровые сервисы, но и в ежемесячных платежах за электроэнергию.

Постоянный URL: http://servernews.kz/1127043
03.08.2025 [12:14], Сергей Карасёв

Enfabrica представила технологию EMFASYS для расширения памяти ИИ-систем

Компания Enfabrica анонсировала технологию EMFASYS, которая объединяет Ethernet RDMA и CXL для создания пулов памяти, предназначенных для работы с серверными ИИ-стойками на базе GPU. Решение позволяет снизить нагрузку на HBM-память ИИ-ускорителей и тем самым повысить эффективность работы всей системы в целом.

Enfabrica основана в 2019 году. Стартап предлагает CXL-платформу ACF на базе ASIC собственной разработки, которая позволяет напрямую подключать друг к другу любую комбинацию GPU, CPU, DDR5 CXL и SSD, а также предоставляет 800GbE-интерконнект. Компания создала чип ACF SuperNIC (ACF-S) для построения высокоскоростного интерконнекта в составе кластеров ИИ на основе GPU.

В рамках платформы EMFASYS специализированный пул памяти подключается к GPU-серверам через чип-коммутатор ACF-S с пропускной способностью 3,2 Тбит/с, который объединяет PCIe/CXL и Ethernet. Поддерживаются интерфейсы 100/400/800GbE, 32 сетевых порта и 160 линий PCIe. Могут быть задействованы до 144 линий CXL 2.0, что позволяет использовать до 18 Тбайт памяти DDR5 (в перспективе — до 28 Тбайт). Вместо копирования и перемещения данных между несколькими чипами на плате Enfabrica использует один SuperNIC, который позволяет представлять память в качестве целевого RDMA-устройства для приложений ИИ.

 Источник изображений: Enfabrica

Источник изображений: Enfabrica

Высокая пропускная способность памяти достигается за счёт распределения операций более чем по 18 каналам на систему. Время доступа при чтении измеряется в микросекундах. Программный стек на базе InfiniBand Verbs обеспечивает массовую параллельную передачу данных с агрегированной полосой пропускания между GPU-серверами и памятью DRAM через группы сетевых портов 400/800GbE.

Enfabrica отмечает, что рабочие нагрузки генеративного, агентного и рассуждающего ИИ растут экспоненциально. Во многих случаях таким приложениям требуется в 10–100 раз больше вычислительной мощности на запрос, чем большим языковым моделям (LLM) предыдущего поколения. Если память HBM постоянно загружена, дорогостоящие ускорители простаивают. Технология EMFASYS позволяет решить проблему посредством расширения памяти: в этом случае ресурсы GPU используются более полно, а заявленная экономия достигает 50 % в расчёте на токен на одного пользователя.

Постоянный URL: http://servernews.kz/1127024
03.08.2025 [10:17], Сергей Карасёв

Rebellions и Marvell займутся разработкой решений для суверенного ИИ

Южнокорейская компания Rebellions, занимающаяся созданием специализированных ИИ-чипов, объявила о сотрудничестве с американским разработчиком процессоров, микроконтроллеров и телекоммуникационных изделий Marvell Technology. Цель партнёрства — выпуск высокопроизводительных и энергоэффективных ИИ-решений для суверенных платформ в Азиатско-Тихоокеанском регионе и на Ближнем Востоке.

Стартап Rebellions основан в 2020 году. Компания проектирует чипы для инференса, способные обеспечить энергоэффективность и высокую производительность при небольших задержках. В январе 2024 года Rebellions провела раунд финансирования Series B, в ходе которого на развитие было привлечено $124 млн. Позднее стартап получил $15 млн от Wa’ed Ventures — венчурного подразделения саудовского нефтегазового и химического гиганта Aramco. Кроме того, фирма Rebellions объявила о слиянии с разработчиком ИИ-чипов Sapeon Korea, который был выделен из SK Telecom в 2016 году.

 Источник изображения: Rebellions

Источник изображения: Rebellions

В заявлении Rebellions говорится, что инфраструктура ИИ становится всё более важной в плане обеспечения национальной конкурентоспособности. На этом фоне наблюдается переход от стандартизированных архитектур на базе GPU к специализированным системам, построенным с применением ASIC. Такой трансформации способствуют суверенные инициативы и проекты региональных поставщиков облачных услуг, которым требуется инфраструктура, обеспечивающая масштабируемость, эффективность и контроль.

Предполагается, что новое партнёрство позволит Rebellions разрабатывать кастомизированные ИИ-ускорители с использованием специализированных платформ Marvell. При этом будут использоваться передовые технологии упаковки чипов, высокоскоростные SerDes-блоки и межкомпонентные соединения. Новые чипы, как ожидается, обеспечат возможность высокопроизводительного и энергоэффективного инференса.

В целом, сотрудничество позволит объединить достижения Rebellions в области разработки ИИ-решений с передовыми технологиями интеграции кремниевых компонентов Marvell для создания специализированной инфраструктуры ИИ, отвечающей потребностям государственных организаций.

Постоянный URL: http://servernews.kz/1127021
02.08.2025 [21:58], Владимир Мироненко

Amazon за год вложит в инфраструктуру рекордные $118 млрд, но рост ИИ ЦОД сдерживает нехватка электроэнергии

Amazon.com сообщила о значительном росте выручки и прибыли во II квартале 2025 года, завершившемся 30 июня, но акции гиганта электронной коммерции упали более чем на 7 % после закрытия торгов, поскольку темпы роста её подразделения облачных вычислений Amazon Web Services (AWS) не оправдали ожиданий инвесторов, пишет Reuters. Вместе с тем результаты II квартала показали, что Amazon лучше справляется с меняющейся тарифной политикой США, чем опасались на Уолл-стрит, отметил ресурс CNBC.

Amazon увеличила выручку на 13 % до $167,7 млрд, превысив прогноз Уолл-стрит в размере $162.1 млрд. Чистая прибыль компании составила $18,2 млрд, что на 35 % больше результата годом ранее. Прибыль на разводнённую акцию составила $1,68 при прогнозе аналитиков $1,33.

Облачное подразделение AWS принесло компании $30,9 млрд, что на 17,5 % больше, чем годом ранее, и на 3 % — чем в предыдущем квартале. Выручка AWS больше, чем у облачных подразделений Microsoft и Google, сообщивших о $29,9 и $13,6 млрд соответственно, но инвесторы отметили значительно более низкие темпы роста выручки AWS. У Google Cloud выручка выросла за последний квартал на 32 % в годовом исчислении, у Microsoft Azure — на 26 %.

 Источник изображений: Amazon

Источник изображений: Amazon

Согласно публикации Data Center Dynamics, глава Amazon Энди Джасси (Andy Jassy) сказал: «Годовые проценты и темпы роста всегда зависят от базы, с которой вы работаете. И наш бизнес в сегменте AWS значительно крупнее, чем у других. Думаю, доля второго игрока составляет около 65 % от размера AWS».

В отчётном квартале у AWS была более низкая рентабельность, чем в предыдущих кварталах. Его операционная прибыль составила $10,2 млрд, что ниже средней оценки аналитиков в $10,9 млрд, согласно StreetAccount. Это чуть более половины операционной прибыли компании, равной $19,2 млрд. Доход AWS составляет небольшую часть общей выручки Amazon, но является ключевым источником прибыли, обычно обеспечивая около 60 % от общей операционной прибыли компании.

Во II квартале капитальные вложения Amazon составили $31,4 млрд, что выше прогноза Уолл-стрит, равного $26,4 млрд (по данным The Wall Street Journal). По словам Джасси, Amazon будет тратить примерно столько же в следующих двух кварталах. С учётом того, что капзатраты в I квартале составили $24,3 млрд общая сумма капвложений в 2025 финансовом году составит $118 млрд, что намного больше прогнозируемых $100 млрд. Капитальные вложения Google в последнем квартале составили $22,4 млрд, Microsoft — $24,2 млрд.

Энди Джасси отметил ряд факторов, сдерживающих развёртывание облачной инфраструктуры компании и не позволяющий обеспечить растущий спрос на ИИ-сервисы. Наибольшее влияние оказывают проблемы с обеспечением объектов электроэнергией. За ними следуют «периодические ограничения, связанные с чипами, а затем с некоторыми компонентами для производства серверов». Он заявил, что вряд ли эти проблемы решатся в 2025 году, но выразил уверенность, что ситуация будет улучшаться с каждым кварталом.

Несмотря на большие вложения в ИИ-инфраструктуру аналитики отмечают, что отсутствие у AWS сильной ИИ-модели вызывает опасения, что компания может отставать от конкурентов в разработке ИИ. Результаты AWS «вызывают тревогу», заявил Дэйв Вагнер (Dave Wagner), управляющий портфелем Aptus Capital Advisers, владеющей акциями Amazon.

В ответ Джасси сообщил, что «сейчас ещё слишком рано говорить об ИИ», отметив партнёрство компании с Anthropic, которая обучает свои модели на ускорителях Trainium2 от Amazon. Он добавил, что чипы собственной разработки компании предлагают на 30–40 % лучшее соотношение цены и производительности. «Я думаю, что значительная часть вычислений и инференса в конечном итоге будет выполняться на базе Tranium. И я думаю, что это соотношение цены и производительности будет иметь значение для людей по мере масштабирования», — сообщил руководитель Amazon.

Джасси также отметил то, что 85–90 % мировых ИТ-расходов приходится на локальные, а не на облачные решения, и компания ожидает, что ситуация изменится в ближайшие 10–15 лет. Этот сдвиг, по словам Джасси, принесёт пользу AWS. «Значительная часть инференса генеративного ИИ станет просто ещё одним строительным блоком, таким как вычисления, хранение и базы данных. И пользователи захотят запускать эти приложения рядом с теми местами, где работают их другие приложения, где находятся их данные. В AWS обрабатывается гораздо больше приложений и данных, чем где-либо ещё», — отметил глава Amazon.

Касаясь миграции из локальной среды в облако, Джасси также отметил несколько новых соглашений с такими компаниями, как PepsiCo, Airbnb, Peloton, Nasdaq, Лондонская фондовая биржа, Nissan Motor, GitLab, SAP, Warner Bros. Discovery, Twelve Labs, FICO, Iberia Airlines, SK Telecom и NatWest.

Amazon сообщила о сокращении 14 тыс. рабочих мест в отчётном квартале, в том числе в AWS, книжном подразделении, отделе гаджетов и подкастов, что стало первым сокращением с начала 2024 года. В настоящее время штат компании составляет 1,46 млн человек.

Согласно прогнозу Amazon, в III квартале 2025 года выручка будет находиться в диапазоне $174,0– $179,5 млрд, что представляет собой рост год к году от 10 до 13 % и выше консенсус-прогноза аналитиков, опрошенных LSEG, в $173,08 млрд. Прогноз компании по операционной прибыли оказался ниже ожиданий аналитиков — $15,5–$20,5 млрд, что в средней точке ниже целевого показателя Уолл-стрит в $19,45 млрд.

Постоянный URL: http://servernews.kz/1127011
02.08.2025 [15:12], Сергей Карасёв

Нордический Stargate: OpenAI получит в Норвегии 230-МВт ИИ ЦОД со 100 тыс. ИИ-ускорителей NVIDIA

Компания OpenAI анонсировала проект Stargate Norway — это первый в Европе дата-центр для задач ИИ, создающийся в рамках программы OpenAI for Countries. Объект расположится в Норвегии, в Квандале (Kvandal) неподалёку от Нарвика (Narvik) на севере страны.

В проекте принимают участие компания Nscale, поставщик ИИ-инфраструктуры с опытом предоставления облачных решений в Европе и Северной Америке, а также инжиниринговая фирма Aker. На начальном этапе мощность нового ЦОД составит 230 МВт с перспективой добавления ещё 290 МВт. К концу 2026 года в дата-центре будут размещены 100 тыс. ИИ-ускорителей NVIDIA, а в последующие годы планируется «значительное расширение».

Территория Нарвика выбрана не случайно. Обилие гидроэнергии, её низкая стоимость, прохладный климат и развитая промышленная база региона делают его оптимальным местом для масштабного и устойчивого развития ИИ-платформ. Новый дата-центр будет получать питание исключительно от возобновляемых источников энергии. Упомянуто применение прямого жидкостного охлаждения для дальнейшего повышения энергетической эффективности. Избыточное тепло будет использоваться для централизованного теплоснабжения.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Управлять новым ЦОД предстоит совместному предприятию Nscale и Aker с равным долевым участием. Компании выделили около $1 млрд на начальный этап проекта, включая более $250 млн в виде акционерного капитала. Утверждается, что это одна из самых крупных инвестиций в ИИ-инфраструктуру в Европе на сегодняшний день. Площадка в Нарвике обладает потенциалом десятикратного масштабирования и, помимо OpenAI, может использоваться другими клиентами.

Aker и Nscale будут в приоритетном порядке предоставлять ресурсы Stargate Norway норвежским стартапам в области ИИ и научным организациям. Излишки мощностей станут доступны государственным и частным пользователям в Великобритании и странах Северной Европы.

Добавим, что мегапроект Stargate — это совместное предприятие OpenAI, SoftBank и Oracle по развитию ИИ-инфраструктуры в США. Предполагается, что суммарные затраты на реализацию Stargate достигнут $500 млрд. При этом один из крупнейших ИИ ЦОД Stargate расположится в Объединённых Арабских Эмиратах (ОАЭ): мощность этого кампуса составит 5 ГВт. Впрочем, пока развитие проекта идёт ни шатко, ни валко — OpenAI предпочитает искать ресурсы напрямую.

Постоянный URL: http://servernews.kz/1126990
01.08.2025 [12:34], Руслан Авдеев

Европа намерена строить не только ИИ-фабрики, но и сверхмощные гигафабрики

Евросоюз рассчитывает, помимо ИИ-фабрик, заняться строительством более производительных, гигаваттных объектов. В ЕС намерены компенсировать отставание от США и Китая, реализуя комплексные проекты высочайшей производительности, чему готова способствовать компания NVIDIA, сообщает CNBC.

В ЕС описывают ИИ-фабрики как «динамическую экосистему», объединяющую вычислительные мощности, данные и таланты для создания ИИ-моделей и приложений. Блок долгое время отставал как от США, так и от КНР в гонке за первенство на рынке ИИ. Евросоюз обычно довольно долго согласует изменения законов, а высокие цены на электричество, острая необходимость модернизации энергосистем и задержки с выдачей всевозможных разрешений только усугубляют проблему.

Местные чиновники подчёркивают, что Евросоюз в теории обладает большим потенциалом, чем США — в нём на 30 % больше ИИ-исследователей на душу населения, чем в Соединённых Штатах, действуют около 7 тыс. ИИ-стартапов, но главным препятствием для развития является нехватка вычислительных мощностей. Гигафабрики будут вчетверо превосходить по вычислительным мощностям крупнейшие ИИ-проекты, и уже есть всё необходимое для обеспечения технологического суверенитета и конкурентоспособности.

На данный момент в ЕС выделили €10 млрд ($11,8 млрд) на создание 13 ИИ-фабрик и €20 млрд в качестве стартовой инвестиции на создание фабрик гигаваттного уровня. Утверждается, что это крупнейшие инвестиции в ИИ в мире. При этом потребуются немалые частные инвестиции для реализации проекта — заинтересованность в проекте уже выразили десятки структур из 16 стран Евросоюза. В 2025 году в Европе должны заработать семь ИИ-фабрик EuroHPC.

 Источник изображения: Dzmitry Pylypiu/unsplash.com

Источник изображения: Dzmitry Pylypiu/unsplash.com

Гигафабрики описываются как «универсальные центры» для ИИ-компаний, способные имитировать полный цикл производственных процессов на заводах — только вместо классического сырья на гигафабрику будут поступать «сырые» исходные данные, а на выходе получаться готовые ИИ-продукты. По сути, речь идёт о ЦОД с дополнительной инфраструктурой, зависящей от того, как будет внедряться технология.

По словам экспертов, необходимо строить ЦОД с ускорителями, которые смогут как обучать ИИ-модели, так и заниматься инференсом. Дополнительно нужно создать инфраструктуру, которая обеспечит доступ к ресурсам малым и средним предприятиям из стран ЕС, не готовым создавать собственные мощности.

Например, телеком-компания Telenor уже изучает возможности использования гигафабрик. Она запустила собственную ИИ-фабрику в Норвегии в ноябре 2024 года. Теперь компания располагает кластером ускорителей для тестирования своих разработок перед дальнейшим масштабированием. При этом подчёркивается, что решающее значение имеет суверенитет европейских данных.

Компания сотрудничает с разработчиками BabelSpeak — ПО, которое называют норвежской версией ChatGPT. Технология позволяет вести с помощью ИИ конфиденциальные диалоги, — например, ею пользуются в пилотном проекте пограничники, не готовые применять публичные сервисы из-за проблем с безопасностью.

Еврочиновники сообщают, что первая ИИ-фабрика в регионе заработает в ближайшие недели, а один из крупнейших проектов будет запущен в Мюнхене (Германия) в первых числах сентября. С гигафабриками всё несколько сложнее.

 Источник изображения:  Etienne Girardet/unsplash.com

Источник изображения: Etienne Girardet/unsplash.com

Потребуются очень крупные инвестиции, поскольку объекты в четыре раза мощнее классических ИИ-фабрик по вычислительным мощностям. Речь идёт о миллиардах долларов, каждой фабрике потребуется €3–5 млрд вложений. Поэтому планируется создать консорциум партнёров, а в конце года будет объявлен конкурс инвестиций.

Пока неизвестно, в каких объёмах средства потребуются из частных фондов в дополнение к государственным, а производительность заводов тоже пока не ясна. Один из ключевых вопросов — потребление энергии. Создание гигафабрики может занять 1–2 года, а вот строительство электростанции для неё потребует гораздо больше времени. Впрочем, уже было заявлено, что для современных ускорителей NVIDIA потребуется не менее 1 ГВт на гигафабрику. Хватит ли для этого возможностей европейских электросетей — пока неизвестно.

По словам экспертов UBS, нынешняя установленная мощность всех ЦОД в мире составляет порядка 85 ГВт, предполагается, что скоро она вырастет вдвое благодаря растущему спросу. Мощность каждой ИИ-фабрики в ЕС может составить 100–150 МВт, а всего — 1,5–2 ГВт. Это может добавить около 15 % к доступным в Европе вычислительным ресурсам, что является существенным приростом даже на фоне достижений США, на которые сегодня приходится около трети мировых мощностей. Ранее сообщалось, что ЕС намерен утроить ёмкость ЦОД в ближайшие годы.

Впрочем, как считают эксперты, купить чипы у NVIDIA и создать фабрики относительно просто, но запустить их и сделать экономически выгодными — гораздо сложнее. Не исключается, что ЕС, вероятно, придётся начать с меньших масштабов, поскольку сразу создать собственные передовые ИИ-модели из-за их дороговизны не получится. Однако со временем, с развитием собственной инфраструктуры и созданием собственных ИИ-моделей, эту цель, возможно, удастся достичь.

Постоянный URL: http://servernews.kz/1126926
01.08.2025 [09:37], Владимир Мироненко

Meta✴ увеличит капитальные расходы: инвестиции в ИИ и дата-центры продолжают расти

Meta Platforms объявила финансовые результаты II квартала 2025 года, завершившегося 30 июня. Акции компании выросли в цене в ходе расширенных торгов на 11 %, поскольку выручка и прибыль значительно превысили прогнозы Уолл-стрит, сообщило агентство Reuters, отметив, что ИИ по-прежнему является движущей силой её основного рекламного бизнеса.

Выручка Meta за отчётный квартал выросла год к году на 22 %, составив $47,52 млрд, что превзошло консенсус-прогноз аналитиков, опрошенных LSEG, в $44,80 млрд. Прибыль в размере $7,14 на акцию также превысила прогноз Уолл-стрит в $5,92. За год прибыль увеличилась на 36 % — с $13,47 млрд до $18,34 млрд.

 Источник изображения: İsmail Enes Ayhan/unsplash.com

Источник изображения: İsmail Enes Ayhan/unsplash.com

В ходе телефонной конференции с аналитиками генеральный директор Марк Цукерберг (Mark Zuckerberg) заявил, что технология ИИ позволила Meta «повысить эффективность и прибыль рекламной системы». Выручка компании от рекламы составила $46,56 млрд, превысив прогноз Уолл-стрит в $43,97 млрд.

В текущем III квартале Meta прогнозирует выручку от $47,5 до $50,5 млрд, что выше прогноза Уолл-стрит в $46,14 млрд. Meta также повысила нижнюю границу своего прогноза годовых капитальных затрат на $2 млрд, до диапазона от $66 до $72 млрд.

Рост расходов на создание инфраструктуры ЦОД и компенсаций, связанных с наймом персонала, — Meta переманивает исследователей, предлагая им огромные зарплаты, — может привести к тому, что темпы роста расходов в 2026 году превысят темпы роста в 2025 году, заявила Meta. Компания также планирует увеличить капитальные расходы в следующем году. Ранее в этом году Meta сообщила, что планирует потратить до $72 млрд на капитальные вложения в 2025 году, в основном на инвестиции в ИИ. На прошлой неделе Цукерберг заявил, что компания инвестирует сотни миллиардов долларов в строительство нескольких «мультигигаваттных» дата-центров по всей стране. Один из таких кампусов под названием Hyperion, в конечном итоге, будет иметь мощность в 5 ГВт.

Отвечая на вопрос о растущих капитальных расходах компании, финансовый директор Meta Сьюзан Ли (Susan Li) заявила, что Meta «изучает возможности сотрудничества с финансовыми партнёрами для совместного развития ЦОД». «У нас нет каких-либо окончательных сделок, о которых мы могли бы объявить, но мы в целом полагаем, что здесь будут модели, которые привлекут значительное внешнее финансирование для поддержки крупномасштабных проектов ЦОД, разрабатываемых с использованием наших возможностей по созданию инфраструктуры мирового класса», — сказала Ли.

Meta не предоставила прогноз по продажам в IV квартале, лишь сообщив, что рост выручки в годовом исчислении будет ниже, чем в III квартале.

«Инвестиции Meta в рекламный бизнес, основанные на ИИ, продолжают приносить прибыль... Но непомерные расходы Meta на свои разработки в сфере ИИ продолжат вызывать вопросы и пристальное внимание инвесторов, жаждущих увидеть прибыль», — говорит старший аналитик Emarketer Минда Смайли (Minda Smiley).

Аналитик указала на проблемы с регуляторами, с которыми Meta сталкивается в США и за рубежом, что добавляет неопределённости в её будущее. Американские антимонопольные органы подали в суд на Meta, требуя реструктуризации или продажи Instagram и WhatsApp, утверждая, что компания стремится монополизировать рынок социальных сетей.

Постоянный URL: http://servernews.kz/1126908
31.07.2025 [18:53], Руслан Авдеев

G42 готова завершить сделку с Northern Data для получения доступа к ЦОД в Европе

Компании G42 (ОАЭ) и Northern Data AG (Германия) близки к заключению сделки, в рамках которой первая получит доступ к мощностям ЦОД в Европе, сообщает Bloomberg. Это связано с расширением деятельности G42 за пределами Ближнего Востока, в частности — в Евросоюзе.

Как свидетельствуют источники, Northern Data предоставит Core42 — подразделению G42, занятому облачными вычислениями — доступ к почти половине из 23 тыс. ИИ-ускорителей NVIDIA. По информации источников, условия сделки ещё могут измениться.

Northern Data выступает оператором ЦОД в США, Швеции, Норвегии и Португалии. Если ранее она предлагала мощности для майнинга криптовалют, то ИИ-бум заставил её изменить профиль. В 2025 году от облачного подразделения Taiga, предлагающего сервисы генеративного ИИ, ожидается рост выручки на 74 % год к году. Правда, с начала года акции Northern Data упали более чем на 50 %.

G42, базирующаяся в Абу-Даби (ОАЭ) намерена расширить деятельность в Азии, Африке и США. В июне 2025 года компания открыла офис в Лондоне для продаж ИИ-решений частным структурами и государственным учреждениям. Компания тесно связана с государственным аппаратом своей страны и может привлекать значительные ресурсы, полученные ОАЭ от нефтяных доходов.

 Источник изображения: Xenofon Tsantilas/unsplash.com

Источник изображения: Xenofon Tsantilas/unsplash.com

ОАЖ уже участвуют в инвестиционных проектах в Европе. В частности, речь идёт о вложениях в объёме €50 млрд ($58 млрд) во французские ЦОД и значительных инвестициях в итальянский ЦОД мощностью 1 ГВт. В мае NVIDIA и поддерживаемый G42 инвестиционный фонд MGX совместно с суверенным фондом благосостояния Mubadala Investment Co. объединились с французским бизнесом для создания «крупнейшего в Европе» кампуса ИИ-ЦОД.

Как сообщает Bloomberg, недавно Northern Data заявила о наличии «стратегического интереса» к продаже своих подразделений Taiga Cloud и Ardent, занятых строительством и обслуживанием ЦОД, хотя ни одна сделка ещё не заключена. Также рассматривался вариант их вывода на IPO. Подразделение компании, отвечающее за криптомайнинг, должно пройти реструктуризацию и может быть выставлено на продажу.

Постоянный URL: http://servernews.kz/1126881
31.07.2025 [14:56], Руслан Авдеев

Выручка Vertiv выросла на 35 % на фоне «беспрецедентного роста ЦОД», но новые тарифы мешают бизнесу

Во II квартале 2025 года выручка компании Vertiv выросла на 35 % по сравнению с аналогичным периодом прошлого года. Компания, поставляющая системы электропитания, охлаждения, серверные стойки и другое оборудование для дата-центров, отмечает продолжение роста рынка ЦОД, особенно с учётом увеличения крупных ИИ-объектов, сообщает Datacenter Dynamics.

За указанный квартал выручка составила $685 млн, объём «органических» заказов увеличился на 15 % по сравнению с аналогичным периодом прошлого года и на 11 % по сравнению с 1 кварталом 2025 года.

Задолженность компании составила $8,5 млрд, а соотношение балансовой стоимости и счетов за квартал — примерно 1,2х. Тем временем операционная прибыль увеличилась на 32 % и составила $442 млн (скорректированная операционная прибыль — на 28 %, до $489 млн). Однако скорректированная операционная маржа снизилась на 110 базисных пунктов до 18,5 %, что в основном связано с новыми тарифами.

По данным Vertiv, затраты на цепочку поставок и дополнительные расходы, связанные с изменением производственных процессов для смягчения тарифов, оказались выше, чем ожидалось.

 Источник изображения: Vertiv

Источник изображения: Vertiv

Компания также отметила операционную неэффективность и сложности в исполнении заказов, вызванные более быстрым, чем ожидалось, ростом спроса. Vertiv рассчитывает решить обе проблемы к концу года и повысила прогноз по скорректированной разводнённой прибыли на акцию (diluted EPS), выручке, скорректированной операционной прибыли и свободному денежному потоку на год.

Представители компании заявили, что результаты второго квартала показали прочность рыночных позиций Vertiv и её способность масштабироваться. Показатели отражают как высокий рыночный спрос, так и расширенные возможности для удовлетворения всё более сложных инфраструктурных потребностей клиентов. В компании утверждают, что стратегически инвестируют в расширение мощностей и ускоряют разработку инновационных решений, чтобы извлечь выгоды из беспрецедентного роста рынка ЦОД, особенно в сфере ИИ-инфраструктуры.

В июле 2025 года Vertiv приобрела производителя стоек Great Lakes за $200 млн, удвоив инвестиции в свой портфель решений для дата-центров. Кроме того, компания совместно с Oklo создаёт комплексную систему питания и охлаждения ЦОД на базе малых модульных реакторов.

По словам представителя Vertiv, происходящие сегодня изменения в индустрии ЦОД выходят далеко за рамки ближайших лет. Речь идёт о технологической трансформации, которая станет залогом устойчивого долгосрочного роста. За последние несколько дней акции компании выросли более чем на 10 %, хотя ещё недавно разработка AWS собственной СЖО для NVIDIA GB200 NVL72 привела к некоторому падению акций Vertiv.

Постоянный URL: http://servernews.kz/1126872

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus