Материалы по тегу: ии
14.06.2025 [00:52], Владимир Мироненко
Oracle пообещала построить больше облачных ЦОД, чем все конкуренты вместе взятыеАмериканская корпорация Oracle сообщила финансовые результаты IV квартала и всего 2025 финансового года, закончившегося 31 мая 2025 года. Выручка выросла на 11 % в годовом исчислении в IV квартале до $15,9 млрд при консенсус-прогнозе аналитиков, опрошенных LSEG, в размере $15,59 млрд. После публикации квартального отчёта акции Oracle выросли в четверг на 14 % до $201,38, впервые превысив отметку в $200, сообщило агентство Reuters. Чистая прибыль (GAAP) выросла до $3,43 млрд или $1,19 на разводнённую акцию с $3,14 млрд или $1,11 на разводнённую акцию годом ранее. Скорректированная чистая прибыль (Non-GAAP) за квартал равняется $4,88 млрд или $1,70 на разводнённую акцию, что выше консенсус-прогноза от LSEG в размере $1,64 на разводнённую акцию. В I квартале 2026 финансового года Oracle ожидает получить скорректированную прибыль (Non-GAAP) на акцию в размере $1,46–1,50 при росте выручки в диапазоне от 12 до 14 %. Аналитики, опрошенные LSEG, ожидают $1,48 скорректированной прибыли на акцию и $14,96 млрд выручки, что подразумевает рост год к году на 12,4 %. Выручка за IV финансовый квартал от облачных сервисов и поддержки лицензий выросла на 14 % до $11,7 млрд (74 % всей выручки), превысив консенсус-прогноз аналитиков, опрошенных StreetAccount, в размере $11,59 млрд. Выручка от лицензирования облачных и локальных продуктов увеличилась на 8 % до $2,01 млрд, превысив консенсус-прогноз StreetAccount в размере $1,82 млрд. Также увеличились, хотя и незначительно, продажи оборудования — на 1 % до $850 млн, но сократилась выручка от сервисов — на 2 % до $1,35 млрд. Между тем компания заявила, что её оставшиеся обязательства по исполнению (RPO), отражающие объём невыполненных работ, выросли на 41 % до $138 млрд. ![]() Источник изображения: NVIDIA Что касается итогов за 2025 финансовый год, то выручка Oracle увеличилась на 8 % до $57,4 млрд. Доходы от облачных сервисов и поддержки лицензий выросли на 12 % до $44,02 млрд, выручка от лицензирования облачных и локальных продуктов выросла на 2 % до $5,20 млрд. Чистая прибыль (GAAP) за год составила $12,44 млрд или $4,34 на разводнённую акцию, а скорректированная чистая прибыль (Non-GAAP) — $17,28 млрд или $6,03 на разводнённую акцию. Генеральный директор Oracle Сафра Кац (Safra Catz) сообщила, что выручка от облачной инфраструктуры должна увеличиться в 2026 финансовом году более чем на 70 % (уже сейчас рост +52 % в отчётном квартале). Компания прогнозирует более $67 млрд выручки в 2026 финансовом году, что превышает консенсус-прогноз аналитиков от LSEG в размере $65,18 млрд. По словам Кац, компания намерена увеличить целевой показатель выручки в размере $104 млрд, установленный ею в сентябре прошлого года на 2029 финансовый год. ![]() Источник изображения: Oracle Также гендиректор Oracle отметила, что капитальные затраты в 2025 финансовом году превысили $21 млрд по сравнению с менее чем $7 млрд в 2024 финансовом году, и в 2026 году должны превысить $25 млрд. «Мы делаем многое, чтобы снизить наши капитальные затраты, — сообщил председатель и технический директор Oracle Ларри Эллисон (Larry Ellison). — Но даже если мы это сделаем, капитальные затраты вырастут, потому что спрос сейчас кажется почти ненасытным». «Я никогда не видел ничего даже отдалённо похожего», — добавил он. Эллисон сообщил, что в настоящее время у компании 23 действующих ЦОД MultiCloud и ещё 47 будут построены в течение следующих 12 месяцев. «Мы ожидаем, что трёхзначный рост выручки MultiCloud продолжится в 2026 финансовом году. Выручка от Oracle Cloud@Customer выросла на 104 % по сравнению с прошлым годом. У нас 29 действующих выделенных ЦОД Oracle Cloud@Customer, и ещё 30 будут построены в 2026 финансовом году. Общий доход от Oracle Cloud Infrastructure вырос на 62 % в IV квартале», — рассказал технический директор. Он добавил, что доход от баз данных MultiCloud в облаках Amazon, Google и Azure вырос на 115 % по сравнению с предыдущим кварталом. Он также сообщил, что недавно Oracle получила заказ от неназванного клиента на всю доступную облачную ёмкость. «Мы никогда раньше не получали такого заказа, — цитирует Эллисона ресурс SiliconANGLE. — Мы сделали всё возможное, чтобы предоставить им необходимую ёмкость». Однако позже он отметил, что китайский интернет-ретейлер Temu, принадлежащий PDD Holdings, согласился перенести большой объём рабочих нагрузок в облачную инфраструктуру Oracle. Эллисон отметил, что сделка с Temu не имеет ничего общего с ИИ, чтобы продемонстрировать, что Oracle преуспевает по нескольким направлениям, включая её флагманскую базу данных, пишет The Register. Напомним, что Oracle сотрудничает с OpenAI, SoftBank Group и базирующейся в Абу-Даби MGX в проекте Stargate, в рамках которого, как ожидается, будет израсходовано в течение следующих пяти лет более $500 млрд на создание инфраструктуры ИИ ЦОД. Примечательно, что Сафра Кац оговорилась, что формально совместное предприятие Stargate всё ещё не создано. В частности, Softbank отложила инвестиции из-за новых пошлин США. Поэтому есть вероятность, что последние сделки Oracle в сфере ЦОД фактически также окажутся связаны со Stargate. В любом случае Stargate позволит частично оправдать рост капитальных расходов Oracle. Сам же Эллисон пообещал построить больше облачных ЦОД, чем все конкуренты вместе взятые.
13.06.2025 [02:20], Владимир Мироненко
AMD готовит ИИ-стойки Helios AI двойной ширины с Instinct MI400, AMD EPYC Venice и 800GbE DPU Pensando VulcanoВместе с анонсом ускорителей MI350X и MI355X также рассказала о планах на ближайшее будущее, включая выпуск ускорителей серий MI400 (Altair) в 2026 году и MI500 (Altair+) в 2027 году, а также решений UALink, Ultra Ethernet, DPU Pensando и стоечных архитектур, которые послужат основой ИИ-кластеров. Так, AMD анонсировала новую архитектуру Helios AI с стойками двойной ширины, которая объединит процессоры AMD EPYC Venice с ядрами Zen 6, ускорители Instinct MI400 и DPU Vulcano. Благодаря приобретению ZT Systems компания смогла существенно ускорить разработку и интеграцию решений уровня стойки — Helios AI появятся уже в 2026 году. Как сообщает DataCenter Dynamics, Эндрю Дикманн (Andrew Dieckmann), корпоративный вице-президент и генеральный менеджер AMD по ЦОД рассказал перед мероприятием, что решение об увеличении ширины стойки было принято в сотрудничестве с «ключевыми партнёрами» AMD, поскольку предложение должно соответствовать «правильной точке проектирования между сложностью, надёжностью и предоставлением преимуществ производительности». По словам AMD, это позволит объединить тысячи чипов таким образом, чтобы их можно было использовать как единую систему «стоечного масштаба». «Впервые мы спроектировали каждую часть стойки как единую систему», — заявила генеральный директор AMD Лиза Су (Lisa Su) на мероприятии, пишет CNBC. Дикманн заявил, что Helios предложит на 50 % больше пропускной способности памяти и на 50 % больше горизонтальной пропускной способности (по сравнению с NVIDIA Vera Rubin), поэтому «компромисс [за счёт увеличения ширины стойки] был признан приемлемым, поскольку крупные ЦОД, как правило, ограничены не квадратными метрами, а мегаваттами». Как указано в блоге компании, «Helios создана для обеспечения вычислительной плотности, пропускной способности памяти, производительности и горизонтального масштабирования, необходимых для самых требовательных рабочих ИИ-нагрузок, в готовом к развёртыванию решении, которое ускоряет время выхода на рынок». Helios представляет собой сочетание технологий AMD следующего поколения, включая:
AMD отказалась сообщить стоимость анонсированных чипов, но, по словам Дикманна, ИИ-ускорители компании будут дешевле и в эксплуатации, и в приобретении в сравнении с чипами NVIDIA. «В целом, есть существенная разница в стоимости приобретения, которую мы затем накладываем на наше конкурентное преимущество в производительности, поэтому выходит значительная, исчисляемая двузначными процентами экономия», — сказал он. AMD ожидает, что общий рынок ИИ-чипов превысит к 2028 году $500 млрд. Компания не указала, на какую долю общего пирога она будет претендовать — по оценкам аналитиков, в настоящее время у NVIDIA более 90 % рынка. Обе компании взяли на себя обязательство выпускать новые ИИ-чипы ежегодно, а не раз в два года, что говорит о том, насколько жёстче стала конкуренция и насколько важны передовые ИИ-технологии для гиперскейлеров. AMD сообщила, что её чипы Instinct используются семью из десяти крупнейших игроков ИИ-рынка, включая OpenAI, Tesla, xAI и Cohere. По словам AMD, Oracle планирует предложить своим клиентам кластеры с более чем 131 тыс. ускорителей MI355X. Meta✴ сообщила, что уже использует AMD-кластеры для инференса Llama и что она планирует купить серверы с чипами AMD следующего поколения. В свою очередь, представитель Microsoft сказал, что компания использует чипы AMD для обслуживания ИИ-функций чат-бота Copilot.
13.06.2025 [00:15], Владимир Мироненко
Ускорители AMD Instinct MI355X с архитектурой CDNA 4 потребляют 1400 ВтAMD представила ускоритель Instinct MI355X для ИИ- и HPC-нагрузок, демонстрирующий значительный рост производительности в задачах инференса, но вместе с тем почти удвоенное энергопотребление по сравнению с MI300X 2023 года выпуска, сообщил ресурс ComputerBase. Есть и чуть более простая версия MI350X, менее требовательная к питанию и охлаждению. AMD Instinct MI350X (Antares+) основан на оптимизированной архитектуре CDNA 4, отличающейся эффективной поддержкой новых форматов вычислений, в чём AMD ранее не была сильна. В дополнение к FP16 новый ускоритель поддерживает не только FP8, но также FP6 и FP4, которые актуальны для ИИ-нагрузок, особенно инференса. AMD во многом позиционирует Instinct MI350X как ускоритель для инференса, что имеет смысл, поскольку масштабирование MI350X по-прежнему ограничено лишь восемью ускорителями (UBB8), что снижает их конкурентоспособность по сравнению с ускорителями NVIDIA. Впрочем, для т.н. думающих моделей масштабирование тоже важно, что уже сказалось на продажах MI325X. ![]() Источник изображений: AMD via ServeTheHome Серия ускорителей AMD Instinct MI350X включает две модели: стандартный ускоритель Instinct MI350X мощностью 1000 Вт, который всё ещё можно использовать с системами воздушного охлаждения, а также более производительный Instinct MI355X до 1400 Вт, рассчитанный исключительно на работу с СЖО. Впрочем, AMD считает, что некоторые из её клиентов смогут использовать воздушное охлаждение для MI355X, пишет Tom's Hardware. В случае СЖО в одну стойку можно упаковать до 16 узлов (128 ускорителей MI355X), а в случае воздушного охлаждения — до 8 узлов (64 ускорителя MI350X). Для вертикального масштабирования предполагается использование UALink, для горизонтального — Ultra Ethernet. Оба ускорителя будут поставляться с 288 Гбайт памяти HBM3E с пропускной способностью до 8 Тбайт/с. Сообщается, что ускоритель MI350X обладает максимальной производительностью в операциях FP4/FP6 в размере 18,45 Пфлопс, тогда как MI355X — до 20,1 Пфлопс. То есть обе модели серии Instinct MI350X превосходят ускоритель NVIDIA B300 (Blackwell Ultra), который с производительностью 15 FP4 Пфлопс. Что интересно, для векторных FP64-вычислений AMD сохранила тот же уровень производительности, что был у MI300X, а матричные FP64-вычисления стали почти вдвое медленнее. Тем не менее, это всё равно лучше, чем почти 30-кратное снижение скорости FP64-расчётов при переходе от B200 к B300. Если сравнивать производительность новых чипов с предшественником, то производительность MI350X в вычислениях с точностью FP8 составляет около 9,3 Пфлопс, в то время как у MI355X, как сообщается, этот показатель составляет 10,1 Пфлопс, что значительно выше, чем 5,22 Пфлопс у Instinct MI325X (во всех случаях речь идёт о разреженных вычислениях). MI355X также превосходит NVIDIA B300 на 0,1 Пфлопс в вычислениях FP8. Формально разница между MI350X и MI355X не так велика, но на практике она может достигать почти 20 % из-за возможности более долго поддерживать частоты при наличии СЖО. В целом, по словам AMD, в ИИ-тестах MI350X/MI355X быстрее MI300X в 2,6–4,2 раза в зависимости от задачи и до 1,3 раз быстрее (G)B200, но при этом значительно дешевле последних. Компоновка MI350X/MI355X напоминает компоновку MI300X. Есть восемь 3-нм (TSMC N3P) XCD-чиплетов, лежащих поверх двух 6-нм (N6) IO-тайлов (IOD) и обрамлённых восемью стеками HBM3E. Переход к двум IOD повлиял и на NUMA-домены, поскольку теперь память можно поделить только пополам. А вот вычислительных инстансов может быть до восьми. Используется комбинированная 3D- и 2.5D-компоновка чиплетов, причём для связи IOD, т.е. двух половинок всего чипа, используется шина Infinity Fabric AP с пропускной способностью 5,5 Тбайт/с. Каждый XCD содержит 36 CU, из которых активно только 32 (для повышения процента годных чипов), и общий L2-кеш объёмом 4 Мбайт. Все XCD подключены к Infinity Cache объёмом 256 Мбайт. Для связи с внешним миром есть один интерфейс PCIe 5.0 x16 (128 Гбайт/с) и семь линий Infinity Fabric (1075 Гбайт/с), которые как раз и позволяют объединить восемь ускорителей по схеме каждый-с-каждым. Технический директор AMD Марк Пейпермастер (Mark Papermaster) заявил, что отрасль продолжит разрабатывать всё более мощные процессоры и ускорители для суперкомпьютеров, чтобы достичь производительности зеттафлопсного уровня примерно через десятилетие. Однако этот рост будет достигаться ценой резкого увеличения энергопотребления, поэтому суперкомпьютер с производительностью такого уровня будет потреблять примерно 500 МВт — половину того, что вырабатывает средний реактор АЭС. Для поддержания роста производительности пропускная способность памяти и масштабирование мощности тоже должны расти. Согласно расчётам AMD, пропускная способность памяти ускорителя должна более чем удваиваться каждые два года, чтобы сохранить соотношение ПСП к Флопс. Это потребует увеличения количества стеков HBM на один ускоритель, что приведёт к появлению более крупных и более энергоёмких ускорителей и модулей. Instinct MI300X имел пиковую мощность 750 Вт, Instinct MI355X имеет пиковую мощность 1400 Вт, в 2026–2027 гг., по словам Пейпермастера, нас ждут ускорители мощностью 1600 Вт, а в конце десятилетия — уже 2000 Вт. У чипов NVIDIA энергопотребление ещё выше — ожидается, что у ускорителей Rubin Ultra с четырьмя вычислительными чиплетами энергопотребление составит до 3600 Вт. На фоне растущего энергопотребления суперкомпьютеры и ускорители также быстро набирают производительность. Согласно презентации AMD на ISC 2025, эффективность производительности увеличилась с примерно 3,2 ГФлопс/Вт в 2010 году до примерно 52 Гфлопс/Вт к моменту появления экзафлопсных систем, таких как Frontier. Поддержание такого темпа роста производительности потребует удвоения энергоэффективности каждые 2,2 года, пишет Tom's Hardware. Прогнозируемая система зетта-класса потребует эффективность на уровне 2140 Гфлопс/Вт, т.е. в 41 раз выше, чем сейчас. AMD считает, что для значительного повышения производительности суперкомпьютеров через десятилетие потребуется не только ряд прорывов в архитектуре чипов, но и прорыв в области памяти и интерконнектов.
11.06.2025 [16:12], Руслан Авдеев
OpenAI неожиданно заключила соглашение с Google CloudOpenAI планирует использовать вычислительные мощности Google Cloud. Несмотря на то, что OpenAI в сфере ИИ является прямым конкурентом Google, она намерена использовать эту облачную платформу, чтобы удовлетворить свои потребности в вычислительных ресурсах и диверсифицировать ресурсы, сообщает Reuters. Издание ссылается на информацию трёх источников, отмечая, что соглашение является неожиданным, поскольку подразделение DeepMind компании Google напрямую соперничает с OpenAI в сфере искусственного интеллекта, а ChatGPT с его новыми функциями представляет угрозу поисковым сервисам Google. Последняя, тем не менее предоставит, OpenAI дополнительные вычислительные мощности, чтобы помочь компании обучать и эксплуатировать свои ИИ-модели. Пока нет данных, станет ли OpenAI использовать фирменные TPU Google или будет применять в облаке только ускорители NVIDIA. В OpenAI и Microsoft не комментируют новость. Ранее Microsoft выступала эксклюзивным поставщиком облачных услуг ИИ-стартапу благодаря ранним инвестициям в компанию, но спрос на вычислительные мощности у OpenAI продолжал расти, опережая возможности Microsoft. Поэтому последняя отказалась от эксклюзивного сотрудничества с некоторыми условиями. ![]() Источник изображения: Growtika/unsplash.com OpenAI объявила о проекте Stargate стоимостью $500 млрд в начале текущего года — компания действует в партнёрстве с SoftBank, Oracle и MGX из ОАЭ. Первый кампус строится в Абилине (Abilene, Техас). Предполагается, что Oracle купит для него около 400 тыс. ускорителей NVIDIA GB200. Изучается возможность и строительства кампусов Stargate в других местах, в том числе в ОАЭ. В мае 2025 года OpenAI уже подписала облачное соглашение с CoreWeave на сумму $4 млрд, это стало развитием более ранней сделки с компанией на сумму $11,9 млрд. На этой неделе компания TD Cowen выступила с предположением, что Oracle ищет в США 5 ГВт ЦОД-мощностей для OpenAI, и это помимо общего проекта Stargate. По данным источников Reuters, ранее OpenAI пыталась заключить сделку с Google Cloud, но ей помешали обязательства перед Microsoft.
11.06.2025 [15:28], Руслан Авдеев
В водах Шанхая появится подводный ЦОД HiCloud, запитанный от ветряной электростанцииВ Китае близ Шанхая начали подготовку к реализации подводного дата-центра (UDC) с питанием от оффшорной ветряной электростанции — Shanghai Lingang UDC. Проект будет реализован компанией HiCloud, подразделением Highlander, ранее построившей UDC-модули у побережья провинции Хайнань (Hainan), сообщает Datacenter Dynamics. По данным местных СМИ, HiCloud вложит в проект на начальном этапе ¥1,6 млрд ($222,8 млн). Компания заключила трёхстороннее соглашение с Shanghai Lingang Special Area Investment Holding Group и руководством специальной зоны свободной торговли Lingang Special Area of China (Shanghai) Pilot Free Trade Zone. На первом будет построен 2,3-МВт демонстрационный объект, который должен заработать в сентябре 2025 года. В ходе второго этапа партнёры намерены масштабировать мощность до 24 МВт. Именно второй этап предусматривает использование возобновляемой энергии, передовых систем охлаждения, а также трансграничную передачу данных. По словам HiCloud, естественная система охлаждения морской водой снизит энергопотребление охладительных установок с 40–50 % от общего потребления ЦОД до менее 10 %. В целом энергетические затраты подводного дата-центра будут на 30–40 % меньше в сравнении с традиционными ЦОД. ![]() Источник изображения: HiCloud Впервые Highlander развернула подводный ЦОД в провинции Гуандун (Guangdong) в 2021 году. В 2023 году компания реализовала первый коммерческий дата-центр такого типа, который затем был расширен, а в феврале 2025 года получил модуль с ИИ-серверами. Некоторые другие компании уже оценили аналогичные технологии. Наибольшего внимания заслуживает проект Microsoft 2015 года — компания запустила первый в мире UDC у тихоокеанского побережья США. За этим последовал ещё один пилотный проект у берегов Оркнейских островов (Orkney Islands) в Северном море в 2018 году. Но в итоге проект Project Natick был закрыт. Подводными дата-центрами также занимаются Subsea Cloud и NetworkOcean. Впрочем, NetworkOcean столкнулся с запретами регуляторов в ходе попыток начать тестирование у берегов Сан-Франциско в сентябре прошлого года.
11.06.2025 [11:20], Руслан Авдеев
AWS инвестирует $20 млрд в ИИ ЦОД в Пенсильвании и ещё $10 млрд — в Северной КаролинеAmazon Web Services (AWS) объявила о крупнейших в своей истории инвестициях в дата-центры в Северной Каролине и Пенсильвании — $10 млрд и $20 млрд соответственно. По данным The Next Platform, в первом штате строительство будут вести в округе Ричмонд (Richmond), во втором, как сообщает Datacenter Dynamics, в городках Салем (Salem Township) и Фолл (Falls Township). Так, в Ричмонде на территории технопарка Energy Way компания AWS получила контроль над участком площадью около 325 га, рядом с газовой электростанцией Duke Energy Smith Energy Complex на 2,2 ГВт. В рамках проекта построят до 20 зданий площадью общей площадью около 790 тыс. м2. Для сравнения — самый плотный кластер ЦОД в округах Лаудон (Laudon) и Принс-Уильям (Prince William) в Вирджинии насчитывает около 12 млн м2 на участке порядка 2,6 км2. На постоянной основе дата-центры будут обеспечивать около 500 рабочих мест. Ранее у AWS не было крупных дата-центров в Северной Каролине, хотя компания вложила здесь $12 млрд в логистическую инфраструктуру. Запад Северной Каролины уже давно привлёк внимание индустрии ЦОД благодаря обилию ресурсов, от электроэнергии до воды и земли. Именно поэтому инвестиции IT-гигантов начались здесь ещё с 2007 года: Google, Apple, Meta✴ и Microsoft вложили здесь $1,2 млрд, $1 млрд, $750 млн и $1 млрд соответственно. Хотя Microsoft приостановила здесь реализацию проектов весной 2025 года, официально их никто не отменял. В AWS рассчитывают, что значительная часть нового кластера будет использоваться для ИИ-нагрузок. По мнению экспертов, если $5 млрд из общего бюджета в $10 млрд уйдут на вычислительное оборудование, на эти средства можно будет внедрить 106 800 ускорителей NVIDIA Blackwell B200 или же 220–330 тыс. ускорителей Trainium2 (зависит от стоимости продукта). Также AWS направит $20 млрд на расширение ИИ-инфраструктуры в Пенсильвании. В Салеме и Фолле построят «инновационные кампусы», но рассматриваются и другие округа штата. По словам местных властей, речь идёт о крупнейших в истории штата частных инвестициях. Как утверждают в Amazon, компания с 2010 года вложила более $26 млрд в местную инфраструктуру, выплаты сотрудникам и др. Строительство в Салеме рассматривалось с начала 2024 года. Компания приобрела кампус ЦОД Talen Energy и более 485 га. В мае AWS успешно резонировала почти 650 га в этом районе для т.н. Special Data Center Overlay District. Всего планируется построить 15 зданий дата-центров в течение следующих десяти лет. Компания надеялась запитать кампус напрямую от АЭС Susquehanna и увеличить мощность дата-центров, но проект был заблокирован регуляторами. В ноябре 2024 года наблюдательный совет Фолла одобрил соглашение о неразглашении для предложенного проекта ЦОД в ТЦ Keystone Trade Center в Моррисвилле (Morrisville), недалеко от Филадельфии (Пенсильвания). Неизвестно, идёт ли речь о проекте AWS — но компания часто заключает подобные соглашения о своих стройках. Также AWS инвестировала в возобновляемую энергетику штата, в т. ч. в 12 солнечных электростанций и солнечные мощности на территории объектов. В числе прочих инвестиций Amazon в последние месяцы — $5 млрд для расширения инфраструктуры на Тайване, а также $4 млрд — в Чили. Облачный регион в этой стране должен заработать к концу 2026 года.
11.06.2025 [09:11], Владимир Мироненко
AWS резко снизила стоимость EC2-инстансов с ускорителями NVIDIA, но только для старых моделейAWS объявила об очередном снижении тарифов на GPU-инстансы, которое, по словам компании, стало регулярной практикой благодаря активной работе над снижением расходов. Впрочем, в период острого дефицита вычислительных мощностей в последние год-два, когда использование ускорителей даже для внутренних нужд было резко ограничено, компания наверняка заработала достаточно, чтобы неоднократно окупить закупку и обслуживание соответствующего «железа». На прошлой неделе была снижена до 45 % стоимость использования инстансов EC2 на базе ускорителей NVIDIA, включая семейства P4 (P4d и P4de на базе A100) и P5 (P5 и P5en на базе H100 и H200 соответственно). Снижение стоимости тарифов On-Demand и Savings Plan распространяется на все регионы, где доступны эти инстансы. На On-Demand — с 1 июня, на Savings Plan — после 4 июня. Savings Plans предлагает гибкую модель ценообразования с низкими ценами на использование вычислений в обмен на обязательство по постоянному объёму использования (измеряется в $/час) в течение 1 года или 3 лет. AWS предлагает два типа Savings Plans:
Чтобы обеспечить повышенную доступность по сниженным ценам, AWS предоставляет масштабируемую ёмкость в рамках тарифа On-Demand для:
Также теперь AWS предлагает инстансы Amazon EC2 P6-B200 в рамках тарифа Savings Plan для поддержки крупномасштабных развёртываний, которые стали доступны 15 мая 2025 года при запуске только через EC2 Capacity Blocks для машинного обучения. Инстансы EC2 P6-B200 на базе ускорителей NVIDIA Blackwell обеспечивают обработку широкого спектра рабочих нагрузок, но особенно хорошо подходят для крупномасштабного распределённого обучения и ИИ-инференса, отметила AWS.
10.06.2025 [17:45], Руслан Авдеев
Великобритания потратит £1 млрд на развитие ИИ-инфраструктуру: Nscale развернёт 10 тыс. ускорителей NVIDIA, а Nebius — ещё 4 тыс.Британское правительство объявило о намерении потратить £1 млрд ($1,36 млрд) на масштабирование национальных вычислительных мощностей «в 20 раз», сообщает Datacenter Dynamics со ссылкой на премьер-министра Кира Стармера (Keir Starmer). Участвовать в развитии ИИ на острове намерены и другие компании, в том числе Nebius. Никаких деталей о том, как будут тратиться средства, не сообщалось. Ранее цель двадцатикратного прироста ставилась на 2030 год. Дополнительно Стармер пообещал оптимизировать нормативную базу для получения разрешений на строительство ЦОД в Великобритании, анонсировав «технологическую неделю» в стране вместе с главой NVIDIA Дженсеном Хуангом (Jensen Huang). По словам чиновника, это означает, что Великобритания может стать «производителем» ИИ, а не только «потребителем», в том числе страна сможет предоставлять больше ИИ-услуг в государственном секторе. Министр пообещал ускорить строительство крупных ИИ-лабораторий и дата-центров. Специальный законопроект Planning and Infrastructure Bill, упрощающий многие процедуры в этой сфере, уже ожидает рассмотрения британскими парламентариями. Он способен «изменить правила игры». ![]() Истчоник изображения: Benjamin Davies/unsplash.com Одновременно с докладом Стармера NVIDIA объявила, что будет инвестировать в страну и заключила сделки с облачным провайдером Nscale для внедрения 10 тыс. ускорителей Blackwell к концу 2026 года, Nebius может рассчитывать на 4 тыс. ускорителей, причём речь идёт о B300. NVIDIA — один из участников группы UK Sovereign AI Industry Forum, в число основателей которой также входят Babcock, BAE Systems, BT, National Grid и Standard Chartered. По мнению Хуанга, Великобритания находится в идеальных условиях для развития ИИ. Возможность строительства в стране мощных ИИ-суперкомпьютеров будет привлекать всё больше стартапов. Он отметил, что нация имеет богатую историю создания стартапов и добавил, что условия идеальны для «взлёта», пока не хватает лишь суверенной ИИ-инфраструктуры. В Соединённом Королевстве уже обозначили намерение превратиться в «ИИ-сверхдержаву». Правда, пока непонятно, хватит ли на это энергии.
10.06.2025 [14:44], Руслан Авдеев
В обход Stargate: Oracle рассчитывает найти для OpenAI 5 ГВт на обучение ИИ к концу 2026 годаКомпания Oracle намерена расширить присутствие на рынке дата-центров в США для поддержки рабочих нагрузок OpenAI. Как сообщают аналитики TD Cowen, особое внимание уделяется отдельным объектам мощностью порядка 1 ГВт, энергия которым будет доступна уже в конце 2026 и начале 2027 гг., сообщает Datacenter Dynamics. Партнерство Oracle и OpenAI отчасти обусловлено предпочтением OCI SuperClaster с RDMA-интерконнектом, обеспечивающим высокую пропускную способность и низкие задержки. Сотрудничество также способствует развитию уже существующего проекта OpenAI на базе кампуса Abilene Stargate в Абилине (Техас), построенном Crusoe и Oracle. Вместе с тем TD Cowen полагает, что новая пятилетняя сделка не связана со Stargate и была заключена напрямую между Oracle и OpenAI. В её рамках Oracle закупит мощности ЦОД, соответствующие требованиям OpenAI. За них Oracle будет взимать плату в размере $2,60–$3,00 за каждый ускоритель в час, при этом цены будут зависеть от типа чипов. Всего будет развёрнуто около 2,3 млн ускорителей. Ранее OpenAI заявляла, что намерена не только сотрудничать с партнёрами, но строить и собственные дата-центры. В TD Cowen пока не знают, есть ли у Oracle эксклюзивные права на обслуживание этих 5 ГВт или за них придётся побороться с другими провайдерами. Также известно, что OpenAI подписала соглашение на $12 млрд с CoreWeave, а затем ещё на $4 млрд. Не исключено, что последняя также поборется за контракт. ![]() Источник изображений: Oracle В TD Cowen считают, что вне зависимости от того, кто будет исполнителем, предоставившим необходимые 5 ГВт, это позволит отрасли аренды ЦОД в США добиться рекордных показателей уже в 2025 году. Впрочем, в компании сомневаются, что к концу 2026 году в стране наберётся пять полностью запитанных площадок мощностью 1 ГВт каждая — не считая тех мощностей, которыми располагают некоторые бывшие майнеры криптовалют, сейчас преобразующие их для HPC. ![]() По оценкам компании, капитальные затраты на ускорители составят $92 млрд (из расчёта $42 тыс./шт.), капитальные затраты на ЦОД составят ещё $67 млрд (из расчёта $13,5 млн/МВт). В сумме получает $159 млрд, так что не исключено привлечение сторонних инвесторов. Хотя сделка не обсуждалась в рамках проекта Stargate, вполне возможно, что часть средств будет получено именно от него. На Stargate в США рассчитывают потратить до $500 млрд, также планируется реализация аналогичных проектов по всему миру. Так, в ОАЭ намерены реализовать такой проект. В TD Cowen рассчитывают, что мощность Stargate за рубежом составит 5 ГВт, проект будет подкреплён инвестициями со стороны ряда стран, по некоторым данным, рассматривались Израиль и Малайзия. Сейчас эмиссар OpenAI совершает поездку по Азиатско-Тихоокеанскому региону, ведя переговоры в Индии, Южной Корее, Австралии и Сингапуре. В Европе OpenAI ведёт переговоры с Великобританией, Францией и Германией.
10.06.2025 [12:15], Руслан Авдеев
Нейроморфный суперкомпьютер SpiNNaker2, способный имитировать до 180 млн нейронов, прописался в Сандийских национальных лабораторияхНемецкая SpiNNcloud Systems, занимающаяся разработкой нейроморфных суперкомпьютеров, ввела в эксплуатацию в Сандийских национальных лабораториях (Sandia National Laboratories, SNL) суперкомпьютер SpiNNaker2, созданный по подобию человеческого мозга. Это имеет большое значение для развития вычислительной техники и выполнения задач, связанных с обеспечением национальной безопасности, сообщает Silicon Angle. SNL — это научно-исследовательский комплекс правительства США, занимающийся проектами в области национальной безопасности, энергетики и передовых технологических инноваций. Sandia управляется одним из специализированных подразделений Министерства энергетики США (DoE) и более всего известна проектами, связанными с ядерным арсеналом Соединённых Штатов и обеспечением его сохранности и эффективности. Суперкомпьютер SpiNNaker2 анонсировали в мае 2024 года. Он представляет собой высокопроизводительную нейроморфную компьютерную систему, основанную на принципах работы человеческого мозга. Платформа создана разработчиком архитектур Arm и SpiNNaker1 Стивом Фербером (Steve Furber) и использует множество чипов с низким энергопотреблением для ИИ-вычислений и выполнения других задач. ![]() Источник изображения: SpiNNcloud Systems Как сообщает Datacenter Dynamics, система использует тысячи Arm-ядер для имитации работы нейронов мозга. В Sandia National Labs развёрнута одна из крупнейших в мире конфигураций SpiNNaker из 24 плат о 175 104 ядрами, способная моделировать 150–180 млн нейронов, что делает её одной из пяти самых мощных нейроморфных платформ в мире для исследований в области ИИ и нейротехнологий. Впрочем, от человеческого мозга со 100 млрд нейронов система, по данным Blocks & Files, пока ещё сильно отстаёт. SpiNNaker2 использует высокопараллельную архитектуру из 48 чипов SpiNNaker2 на плату, каждый из которых имеет по 152 ядра на основе Arm, 20 Мбайт SRAM и специализированные ускорители. Конструкция обеспечивает эффективные вычисления, позволяющие системе выполнять сложные симуляции с более низким энергопотреблением в сравнении с ИИ-ускорителями традиционного типа. Высокая эффективность SpiNNaker2 делает его особенно ценным для выполнения задач в сфере обеспечения национальной безопасности. Каждая плата оснащена 96 Гбайт оперативной памяти LPDDR4. В конфигурации с 90 платами система имеет 8640 Гбайт DRAM, а в максимальном варианте (1440 плат) — 138 240 Гбайт. Архитектура использует высокоскоростную межчиповую связь, что вообще исключает необходимость в централизованном хранилище данных, а огромный объём памяти позволяет эффективно моделировать крупномасштабные нейронные сети. ![]() Источник изображения: SpiNNcloud Systems SpiNNaker2 интегрирован в существующие HPC-системы и работает без ОС или дисков, достигая высокой скорости работы за счет хранения данных в SRAM и DRAM. Система использует стандартные параллельные порты для загрузки и выгрузки данных, а её текущая максимальная конфигурация включает более 10,5 млн ядер, что позволяет моделировать нейронные сети в режиме «биологического реального времени». По словам представителя Sandia, хотя системы на базе классических ускорителей способны повысить эффективность суперкомпьютеров в сравнении с обычными CPU, системы на основе «архитектуры» человеческого мозга вроде SpiNNaker2 — ещё более привлекательная альтернатива. В SpiNNcloud заявляют, что система поддерживает и следующего поколения алгоритмов систем генеративного ИИ, обеспечивая значительно более эффективный путь развития машинного обучения с применением «динамической разреженности» (dynamic sparsity). По данным сайта SpiNNcloud, в скором будущем появится чип SpiNNext, в 78 раз более энергетически эффективный, чем традиционные ИИ-ускорители. |
|