Материалы по тегу: hardware
04.09.2025 [16:33], Руслан Авдеев
AWS инвестирует $4,4 млрд в новозеландские облачные ЦОДAmazon (AWS) анонсировала открытие в Новой Зеландии облачного региона, а также намерение потратить более NZ$7,5 млрд ($4,4 млрд) на местные дата-центры. Впервые о плане было объявлено ещё в 2021 году, а теперь он получил «второе дыхание», сообщает Bloomberg. Для страны это достаточно значимая инвестиция. AWS создаст облачный регион AWS Asia Pacific, чтобы удовлетворить растущий спрос на облачные сервисы по всей стране. Как сообщают в AWS, строительство, эксплуатация и обслуживание дата-центров позволит ежегодно создавать более 1 тыс. рабочих мест с полной занятостью. Кроме того, увеличится валовый внутренний продукт Новой Зеландии — приблизительно на NZ$10,8 млрд. (более $6.3 млрд). Сроки инвестиций не называются. Новая Зеландия стремится стать новым «магнитом» для иностранных инвестиций в ЦОД, чтобы придать импульс местной экономике, в прошлом году погрузившейся в глубокую рецессию и до сих пор не восстановившейся. Власти специально реформировали градостроительные законы, желая ускорить выдачу разрешений на новые проекты. Кроме того, для привлечения иностранных инвесторов и предпринимателей скорректирован визовый режим. Власти отметили, что по данным Amazon, строительство в Новой Зеландии на 20 % дороже, чем в соседней Австралии, поэтому необходимо менять законы. Новый облачный регион обеспечит уже имеющимся клиентам вроде Xero и Kiwibank возможность локального выполнения любых рабочих нагрузок, локального же хранения данных и предоставления цифровых услуг с малой задержкой. Это, по мнению AWS, позволит быстрее создавать новые облачные продукты. В Новой Зеландии постепенно реализуют всё новые проекты, связанные с дата-центрами и сопутствующей инфраструктурой. Одним из важнейших стал анонсированный весной 2025 года проект Google и Vocus, желающих дотянуть до побережья страны подводный интернет-кабель Honomoana.
04.09.2025 [14:47], Руслан Авдеев
Google бросила вызов NVIDIA, предложив малым облачным провайдерам собственные ИИ-ускорители TPUПо последним данным, Google обратилась к небольшим облачным провайдерам, обычно сдающим в аренду чипы NVIDIA, с необычным предложением — сдавать в аренду её собственные ИИ-ускорители TPU, ранее доступные только в облаке самой Google, сообщает Trendforce со ссылкой на The Information. Это может привести к прямой конкуренции с NVIDIA. Сообщается, что Google уже заключила соглашение как минимум с одним поставщиком облачных сервисов — лондонской Fluidstack. Предполагается разместить TPU в нью-йоркском дата-центре последней. Fluidstack предложены льготы для расширения бизнеса за счёт TPU. Если компания не сможет покрыть расходы на аренду ЦОД в Нью-Йорке, Google обещает предоставить поддержку в объёме до $3,2 млрд. Как утверждается в отчёте, Google ориентируется на молодые компании, в основном на поставщиков облачных услуг, активных пользователей ускорителей NVIDIA. Сообщается, что она уже пыталась заключить аналогичные договоры с другими поставщиками, в настоящее время отдающими предпочтение NVIDIA — включая такие перспективные компании как Crusoe, которая строит ЦОД для OpenAI. Также возможно сотрудничество с CoreWeave, сдающей оборудование NVIDIA в аренду Microsoft (в основном для OpenAI) и также имеющей прямой контракт с OpenAI. ![]() Источник изображения: Google Google довольно давно работает над созданием ИИ-ускорителей. По данным источников The Information, компания рассматривала возможности расширения связанного с TPU бизнеса, чтобы увеличить выручку и снизить зависимость от чипов NVIDIA. По оценкам Morningstar, совокупную стоимость бизнеса TPU и подразделения DeepMind составляет приблизительно $900 млрд. Отмечается, что вышедшие в декабре 2024 года TPU Trillium шестого поколения, весьма востребованы, ожидается и рост спроса на седьмое поколение ускорителей — TPU Ironwood. Это первая модель, разработанная для масштабного инференса. Ранее Google в основном применяла TPU для собственных проектов. Однако некоторое время назад доступность TPU для внешних заказчиков в рамках Google Cloud стала намного выше. Эти чипы использует, например, Apple. Впрочем, и она теперь хочет получить ускорители NVIDIA.
04.09.2025 [11:35], Сергей Карасёв
Sipeed представила NanoKVM Pro — IP-KVM с поддержкой 4K в настольной и встраиваемой версияхКомпания Sipeed анонсировала решение NanoKVM Pro, предназначенное для организации удалённого управления IP-KVM (Keyboard, Video, Mouse). Изделие предлагается в двух вариантах — в «настольном» исполнении, а также в виде мини-платы для установки внутрь корпуса рабочей станции или сервера. В основу новинки положен процессор Axera Tech AX630C. Он содержит два ядра Arm Cortex-A53 с тактовой частотой до 1,2 ГГц и NPU для ускорения ИИ-операций с производительностью до 3,2 TOPS в режиме INT8. Говорится о возможности работы с видеоматериалами в формате 4K. Обе модификации NanoKVM Pro оснащены 1 Гбайт оперативной памяти LPDDR4X и флеш-чипом eMMC вместимостью 32 Гбайт. Есть сетевой порт 1GbE с опциональной поддержкой PoE, а также три разъёма USB Type-C, один из которых служит для подачи питания. Дополнительно может быть установлен адаптер Wi-Fi 6 с коннектором для антенны. Через HDMI-вход возможен захват 4K-видео (45 к/с); кроме того, имеется HDMI-выход. Поддерживается удалённое управление питанием. «Настольная» модификация выполнена в корпусе с размерами 65 × 65 × 28 мм. Во фронтальной части располагается сенсорный информационный дисплей с диагональю 1,47″ и разрешением 320 × 172 точки. Рядом с экраном находится колесико управления. Приём заказов на NanoKVM Pro уже начался. Версия в виде платы для установки внутрь корпуса предлагается по цене от $69 до $85 в зависимости конфигурации (наличие Wi-Fi 6 и/или PoE). «Настольный» вариант стоит от $79 до $95.
04.09.2025 [09:37], Руслан Авдеев
Goldman Sachs допускает крах «пузыря» ИИ на фоне бума в сфере ЦОДИсследование Goldman Sachs свидетельствует, что к 2027 году мощность ЦОД вырастет на 50 % благодаря спросу на ИИ, а энергопотребление сектора удвоится к 2030 году. При этом финансисты отмечают, что повсеместное внедрение ИИ может не оправдать ожиданий инвесторов, сообщает The Register — ИИ-бум породил «лихорадочную атмосферу», в которой крупные технологические компании находятся в постоянном страхе из-за вероятных изменений рынка. По оценкам компании, сегодня глобальная мощность дата-центров составляет порядка 62 ГВт, на облачные нагрузки приходится 58 %, на традиционные нагрузки — 29 % и лишь 13 % — на искусственный интеллект. В начале 2023 года доля ИИ-нагрузок была околонулевой, а к 2027 году она достигнет уже 28 %. Доля облачных нагрузок сократится до 50 %, традиционных — до 21 %. Конечно, сократится лишь доля от общей мощности, а не сами нагрузки из-за активного развития ИИ. По данным Omdia, расходы на ЦОД уже сопоставимы со средними по размеру мировыми экономиками — одна Amazon инвестирует в ЦОД около $118 млрд, что приблизительно равно ВВП Коста-Рики. В Counterpoint Research допускают, что бум ИИ ЦОД может привести к удвоению мировых доходов полупроводниковой промышленности с 2024 по 2030 гг. до более $1 трлн. Большая часть спроса, вероятно, будет приходиться на решения гиперскейл-уровня в краткосрочной и долгосрочной перспективе. ![]() Источник изображения: Lanju Fotografie/unsplash.com Обучение ИИ требует специального оборудования, что приводит к кардинальным изменениям рынка. По данным Goldman Sachs, если два года назад на передовой сервер приходилось по восемь ИИ-ускорителей, то к 2027 году речь будет идти о 576 экземплярах, потребляющих 600 кВт — речь про стойки Kyber с суперускорителями NVIDIA Rubin Ultra NVL576. ![]() Источник изображения: Goldman Sachs Research В результате к 2030 году потребление дата-центрами электричества в мире должно вырасти на 165 %, т.е. с 1–2 % в 2023 году до 3–4 % к концу текущего десятилетия. Ожидается, что за счёт возобновляемых источников будет обеспечено 40 % дополнительной энергии для ЦОД. Поможет и ядерная энергетика, но не так кардинально. Оставшиеся 60 % придётся на генерацию на природном газе, что увеличит выбросы парниковых газов к концу текущего десятилетия на 215–220 млн т — эквивалент 0,6 % от общемировых выбросов, связанных с энергетикой. ![]() Источник изображения: Goldman Sachs Research Хотя прогнозы экспертов относительно рынка ЦОД обычно оптимистичны, финансовые эксперты тщательно следят за любыми негативными изменениями на рынке. Риски включают потенциальные проблемы с монетизацией ИИ. К ним же относится и вариант, при котором инновации значительно удешевят разработку и коммерциализацию моделей. Базовый сценарий предполагает CAGR моoностей ЦОД на уровне 17 % — 92 ГВт к 2027 году. При этом разные сценарии прогнозируют рост в 14 % (если ИИ будет не так интересен бизнесу, как ожидается) до 20 % — если ситуация будет развиваться более оптимистично. Опасения финансовых магнатов отражают «ИИ-скептицизм», присутствующий в более широком масштабе. Глава OpenAI Сэм Альтман (Sam Altman) недавно констатировал, что в отрасли наблюдается «ИИ-пузырь», а эксперты компании McKinsey ещё в начале года предупредили, что никто не может с высокой достоверностью прогнозировать спрос на ИИ в будущем.
03.09.2025 [18:03], Руслан Авдеев
Прототип орбитального ЦОД Axiom Space и Red Hat для экспериментов с периферийными вычислениями прибыл на МКС24 августа Axiom Space и Red Hat отправили на МКС прототип орбитального ЦОД, который уже прибыл на станцию в составе 33-й коммерческой грузовой миссии SpaceX, сообщает Datacenter Knowledge. Целью эксперимента является проверка возможности автономной работы современной вычислительной инфраструктуры в космосе, не полагаясь на зависимость от дорогих спутниковых каналов связи. Новое решение оснащено модулем Axiom Space AxDCU-1, работающем на платформе Red Hat Device Edge, специально разработанной для сред с ограниченными ресурсами. Система использует облегчённый вариант Kubernetes-окружения — платформу Red Hat MicroShift, дающую возможность запускать контейнеризированные рабочие нагрузки в космосе. Задачи выполняются в контейнерах, которые можно удалённо обновлять с Земли. Ключевая особенность системы — её способность работать автономно, без постоянной связи, самостоятельно справляясь с длительными перерывами в коммуникации, которые возникают из-за быстрого движения МКС по орбите. Red Hat Device Edge решает проблему с помощью автоматического отката состояния и функций самовосстановления без вмешательства человека, а также встроенного мониторинга работоспособности и производительности. Для экономии трафика используют дельта-обновления ПО. Сообщается, что дефицит сетевых и вычислительных ресурсов всегда был проблемой на МКС, многие годы было трудно анализировать и передавать данные в режиме реального времени. Орбитальный ЦОД поможет решить эту проблему, с локальной обработкой информации и отправкой на Землю уже готовых результатов. Предполагается, что полезнее всего это будет для экспериментов в сфере естественных наук и биомедицины. В ходе таких исследований часто генерируются большие объёмы данных, но необходимость передавать их на Землю может привести к потерям более ценной и срочной информации. Axiom Space разрабатывает и собственную коммерческую станцию, которая будет оснащена значительными по меркам космоса вычислительными мощностями. По мере развития новой станции будет расти и потребность в масштабируемых, независимых вычислительных средах. «Контейнерный» подход предназначен для поддержки периферийного ИИ, автоматизации и поддержки критически важного ПО на будущих платформах. Впрочем, инновации для космоса найдут место и на Земле, где тоже немало мест с экстремальными условиями. По словам представителя компании-разработчика, извлекаемые «уроки» приносят прямую пользу — повышение надёжности критической инфраструктуры, развитие автономных систем, периферийного ИИ и др. для удалённых или ограниченных в ресурсах регионах напрямую способствуют улучшению качества жизни на Земле.
03.09.2025 [14:11], Сергей Карасёв
Acer представила компактную ИИ-станцию Veriton GN100 за $4000 с суперчипом NVIDIA GB10Компания Acer анонсировала рабочую станцию небольшого форм-фактора Veriton GN100 AI Mini Workstation, предназначенную для решения задач в области ИИ. Новинка, в частности, обеспечивает возможность локального запуска моделей с большим количеством параметров, снижая зависимость от облачной инфраструктуры. Устройство выполнено в корпусе с габаритами 150 × 150 × 50,5 мм. Основой служит суперчип NVIDIA GB10 Grace Blackwell, который объединяет ускоритель Blackwell с тензорными ядрами пятого поколения и 20-ядерный процессор Grace (10 × Arm Cortex-X925 и 10 × Arm Cortex-A725). Заявленная ИИ-производительность достигает 1000 TOPS на операциях FP4. Новинка несёт на борту 128 Гбайт памяти LPDDR5x, а вместимость SSD формата M.2 (NVMe) может достигать 4 Тбайт (поддерживается шифрование данных). В оснащение входят адаптеры Wi-Fi 7 и Bluetooth 5.1, а также сетевой контроллер NVIDIA ConnectX-7 SmartNIC. Предусмотрены четыре порта USB 3.2 Type-C, интерфейс HDMI 2.1b и разъём RJ45 для сетевого кабеля. Весит устройство около 1,5 кг. В качестве программной платформы применяется NVIDIA DGX OS — модификации Ubuntu, адаптированная специально для работы с ИИ. Две рабочие станции Veriton GN100 AI Mini Workstation посредством ConnectX-7 могут быть объединены в одну систему, что позволит работать с ИИ-моделями, насчитывающими до 405 млрд параметров. Говорится о поддержке таких инструментов, как PyTorch, Jupyter и Ollama. Приобрести новинку можно будет по ориентировочной цене $4000 или €4000 в зависимости от региона продаж.
03.09.2025 [09:47], Владимир Мироненко
Гибридный суперчип NVIDIA GB10 оказался технически самым совершенным в семействе BlackwellNVIDIA поделилась подробностями о суперчипе GB10 (Grace Blackwell), который ляжет в основу рабочих станций DGX Spark (ранее DIGITS) для ИИ-задач, пишет ресурс ServeTheHome. Ранее сообщалось, что GB10 был создан NVIDIA в сотрудничестве MediaTek. GB10 объединяет чиплет CPU от MediaTek (S-Dielet) с ускорителем Blackwell (G-Dielet) с помощью 2.5D-упаковки. Оба кристалла изготавливаются по 3-нм техпроцессу TSMC. Как отметил ServeTheHome, GB10 технически является самым передовым продуктом на архитектуре Blackwell на сегодняшний день. CPU включает 20 ядер на базе архитектуры Armv9.2, которые разбиты на два кластера по десять ядер (Cortex-X925 и Cortex-A725). На каждый кластер приходится 16 Мбайт кеш-памяти L3. Унифицированная оперативная память LPDDR5X-9400 ёмкостью 128 Гбайт подключена напрямую к CPU через 256-бит интерфейс с пропускной способностью 301 Гбайт/с. Объёма памяти достаточно для работы с моделями с 200 млрд параметров. На кристалле CPU также находятся контроллеры HSIO для PCIe, USB и Ethernet. Для адаптера ConnectX-7 с поддержкой RDMA и GPUDirect выделено всего восемь линий PCIe 5.0, что не позволит работать обоим имеющимся портам в режиме 200GbE. Именно этот адаптер позволяет объединить две системы DGX Spark в пару для работы с ещё более крупными моделями. G-Die имеет ту же архитектуру, что и B100. Ускоритель оснащён тензорными ядрами пятого поколения и RT-ядрами четвёртого поколения и обеспечивает производительность 31 Тфлопс в FP32-вычислениях. ИИ-производительность в формате NVFP4 составляет 1000 TOPS. Ускоритель подключён к CPU через шину NVLink C2C с пропускной способностью 600 Гбайт/с. G-Die оснащён 24 Мбайт кеш-памяти L2, которая также доступна ядрам CPU в качестве кеша L4, что обеспечивает когерентность памяти между CPU и GPU на аппаратном уровне. Поддерживается технология SR-IOV, интегрированы движки NVDEC и NVENC. Возможно подключение до четырёх дисплеев: три DisplayPort Alt-mode (4K@120 Гц) и один HDMI 2.1a (8K@120 Гц). Что касается безопасности, есть выделенные процессоры SROOT и OSROOT, а также поддержка fTPM и дискретного TPM (по данным Wccftech). TDP GB10 составляет 140 Вт.
03.09.2025 [08:53], Руслан Авдеев
«Фантомные» ИИ ЦОД ещё не построены, но уже мешают энергокомпаниям СШАДата-центры США отчаянно нуждаются в электроэнергии, но пока нет точных данных, сколько их будет построено в итоге и сколько электричества им действительно необходимо. Американские коммунальные компании сообщают о взрывном росте запросов на присоединение к сетям со стороны будущих ИИ ЦОД, причём в некоторых случаях их аппетиты многократно превышает текущее энергопотребление региона, сообщает The Wall Street Journal. Так, American Electric Power (AEP), обслуживающая 11 штатов, и техасские Oncor (Sempra) с CenterPoint Energy суммарно получили от дата-центров запросы на фантастические 400 ГВт. Проблема отчасти в том, что нередко потребности одного и того же дата-центра многократно учитываются разными коммунальными службами — застройщики направляют запросы самым разным поставщикам электричества, одновременно подыскивая лучшие места для будущих ЦОД. При этом по факту многие проекты так и останутся на бумаге, поскольку на присоединение к энергосетям уходят годы, а за это время могут поменяться законы, правила зонирования и т.д. Такие объекты уже прозвали «фантомными ЦОД». Поэтому коммунальные службы не хотят рисковать, наспех строя лишние электростанции и ЛЭП, поскольку не исключено, что ИИ-бум представляет собой очередной «мыльный пузырь», платить за который придётся остальными потребителям. ![]() Источник изображения: American Public Power Association/unsplash.com По данным Министерства труда, цены на электроэнергию по всей стране за год уже выросли на 5,5 %. Спрос на электричество в США не менялся почти 20 лет, приблизительно до 2020 года, но сейчас он растёт по всей стране примерно на 2 % в год. Во многом это связано с ажиотажем вокруг ИИ с его фантастически выросшими запросами. Быстрее всего спрос растёт в местах вроде Северной Вирджинии и Техаса, где строятся крупные ЦОД и развивается производство. Например, к концу у Oncor было 552 запроса на присоединение к сети от крупных клиентов, включая ЦОД и производственные предприятия, т.е. почти на треть больше, чем в конце марта. Пиковый уровень потребления электричества клиентами компании составляет 31 ГВт. При этом ЦОД просят ещё 186 ГВт, а промышленные предприятия — порядка 19 ГВт. Если раньше типичный запрос составлял менее 100 МВт, то сейчас этот показатель приблизился к 700 МВт. Энергосистема AEP оценивается в 37 ГВт, уже заключены соглашения ещё на 24 ГВт. При этом в очереди на рассмотрении находятся заявки на колоссальные 190 ГВт. В компании полагают, что не все проекты будут реализованы. Наконец, потребление клиентов CenterPoint Energy в районе Хьюстона (Техас) составляет чуть больше 22 ГВт, и это один из самых высоких показателей для мегаполиса США. Запросы на подключение составляют 53 ГВт, из них 25 ГВт приходится на ЦОД. При этом год назад ЦОД было нужно всего 1 ГВт. По оценкам компании, по факту понадобится лишь пятая часть запрошенных мощностей. Как сообщало в апреле Международное энергетическое агентство (IEA), энергопотребление ЦОД к 2030 году в мире вырастет более чем вдвое. В конце 2024 года появился отчёт Национальной лаборатории Лоуренса в Беркли (LBNL), где сообщалось, что в 2028 году на дата-центры США может прийтись уже 12 % энергопотребления всей страны. В конце июля 2025 года Anthropic предрекла, что к 2028 году только для ИИ в США потребуется 50 ГВт. Впрочем, ИИ-чипов может на всех и не хватить.
03.09.2025 [01:58], Владимир Мироненко
Акции Pure Storage резко выросли после квартального отчёта на фоне успехов в сотрудничестве с Meta✴Акции Pure Storage подскочили на 32 % до рекордной отметки после того, как этот поставщик СХД опубликовал квартальные результаты, превзошедшие прогнозы Уолл-стрит, и повысил свой прогноз на год, сообщил CNBC. Выручка Pure Storage за II финансовый квартал, завершившийся 3 августа 2025 года, составила $861 млн, превысив результат аналогичного квартала годом ранее на 13 %, а также консенсус-прогноз аналитиков, опрошенных LSEG, в размере $846,9 млн. Скорректированная прибыль на акцию (non-GAAP) составила 43 цента, превысив средний прогноз аналитиков, согласно опросу LSEG, в 39 центов. Чистая прибыль (GAAP) составила $47,1 млн или $0,14 на акцию, что больше показателя годом ранее на 32 %. Выручка от предоставления услуг по подписке выросла год к году на 15 % до $414,7 млн. Ежегодный регулярный доход (ARR) от подписки увеличился на 18 % до $1,8 млрд. Продажи продуктов увеличились на 10,9 % до $446,3 млн. Оставшиеся обязательства (RPO) составили $2,8 млрд (рост год к году на 22 %). В III квартале Pure Storage прогнозирует выручку в размере $950 – $960 млн, что значительно превышает целевой показатель Уолл-стрит в $913,2 млн (по данным SiliconANGLE). Компания повысила свой прогноз выручки на весь год до $3,6 – $3,63 млрд с прежнего диапазона $3,51–$3,53 млрд. Как пишет Blocks & Files, компания сообщила, что было заключено около 300 новых договоров с клиентами, при этом общее количество клиентов превысило 13,5 тыс. и приближается к 14 тыс. Выручка от платформы STaaS увеличилась на 24 % в годовом исчислении до $125 млн. Аналитик NAND Research Стив Макдауэлл (Steve McDowell) сообщил ресурсу SiliconANGLE, что предложения компании в сегменте Storage-as-a-Service были самым ярким событием в отчётном квартале, поскольку выручка от этой услуги росла значительно быстрее, чем предложения в любом другом продуктовом сегменте. Финансовый директор Тарек Роббиати (Tarek Robbiati) отметил «значительный рост всего портфолио, поддерживаемый спросом со стороны крупных предприятий, и продолжающуюся динамику развития FlashBlade, включая FlashBlade//E, а также ускорение темпов роста основных предложений ПО и услуг Evergreen//One, Cloud Block Store и Portworx». Он пояснил, что капвложения в размере $62 млн включают покупку тестового и инфраструктурного оборудования для поддержки расширения ЦОД и обеспечения роста числа подписчиков Evergreen//One. В марте Pure Storage объявила, что заключила соглашение с Meta✴, согласно которому станет «ключевым поставщиком хранилищ» для социальной сети. В ходе общения с аналитиками гендиректор и председатель совета директоров Чарльз Джанкарло (Charles Giancarlo) заявил: «Наше стратегическое сотрудничество с Meta✴ продолжается по плану. Они уже начали первое масштабное развёртывание, и во II квартале мы получили первую выручку от этой деятельности». Роббиати сообщил, что компания ожидала в 2026 финансовом году развёртывание 1–2 Эбайт с использованием технологии DirectFlash в рамках соглашения с Meta✴ и теперь есть уверенность, что прогноз будет реализован, и, возможно, превышен. Он добавил, что компания отмечает «растущий интерес со стороны других гиперскейлеров», стремящихся заменить свои традиционные СХД на решения Pure. Технический директор Роб Ли (Rob Lee) заявил, что сделка с Meta✴ «ускорила взаимодействие как с другими потенциальными клиентами-гиперскейлерами, так и с поставщиками… Эти ранние взаимодействия продвигаются успешно… идёт активное раннее тестирование и оценка технологий, а также проводятся многочисленные проверки концепции». Ли рассказал, что этот процесс существенно отличается от традиционного цикла продаж: «Это скорее процесс совместной разработки, состоящий из нескольких этапов. Выбор технологии для оценки, её тестирование, в конечном итоге приводящее к победе в дизайне, когда данная технология выбирается в качестве своего рода плана, затем проводится поэтапное валидационное тестирование на пути к пилотной версии и, наконец, к масштабированию». Ли также отметил, что Pure Storage наращивает продажи на рынке неооблаков: «Мы добились ряда успехов с поставщиками GPUaaS, обслуживая не только их GPU, но и некоторые из их потребностей в резервном копировании и защите данных, а также ВМ и блочном хранилище». В интервью CNBC Джанкарло заявил, что хотя компания продаёт свои продукты корпоративным клиентам около 15 лет с момента своего основания, в последнее время она ориентируется на гиперскейлеров. В результате рекордного роста акций рыночная стоимость Pure Storage увеличилась до $26 млрд.
02.09.2025 [14:47], Руслан Авдеев
OpenAI построит в Индии дата-центр мощностью более 1 ГВтOpenAI намерена построить в Индии дата-центр мощностью не менее 1 ГВт. Компания ищет местных партнёров для сотрудничества в рамках нового проекта, сообщает Silicon Angle со ссылкой на Bloomberg. Кроме того, партнёров ищут и для продвижения ChatGPT на местном рынке. По предварительным оценкам, новый ИИ ЦОД сможет разместить почти 60 тыс. чипов NVIDIA B200. Пока нет данных, входит ли новый ЦОД в инициативу компании OpenAI for Countries. Программа, запущенная в 2025 году, предполагает создание ИИ ЦОД по всему миру. OpenAI уже заключила контракты на создание инфраструктуры в ОАЭ и Норвегии. Впрочем, речь идёт не только о дата-центрах. Компания предлагает помощь в запуске локальных версий ChatGPT и поддержку местных ИИ-стартапов, в том числе инвестиции в некоторые из них. В феврале 2025 года глава OpenAI Сэм Альтман (Sam Altman) встретился с представителями индийских властей, чтобы обсудить создание «недорогой» ИИ-платформы. Недавно компания запустила новый тариф ChatGPT специально для Индии — подписка ChatGPT Go стоит всего около $4,5/мес. и позволяет обрабатывать в сутки в 10 раз больше запросов, чем в бесплатной версии. Также компания намерена распространить среди местных преподавателей и студентов около 500 тыс. лицензий на использование ChatGPT. До конца года OpenAI намерена открыть офис в Нью-Дели. Создание собственного ЦОД в Индии позволит сократить задержку доступа для местных пользователей. Кроме того, такой проект способен помочь и в борьбе за местных корпоративных клиентов. Особенно это касается организаций, которым необходимо хранить данные локально, обеспечивая информационную безопасность и конфиденциальность. Данные о строительстве ЦОД в Индии появились через несколько недель после заключения соглашения с Oracle о строительстве в США дата-центра на 4,5 ГВт. В следующие четыре года OpenAI намерена ввести в эксплуатацию в США не менее 5,5 ГВт дополнительных мощностей, что обойдётся, вероятно, в $500 млрд. |
|