Материалы по тегу: облако

13.07.2025 [10:57], Сергей Карасёв

CoreWeave запустила первые общедоступные инстансы на базе NVIDIA RTX Pro 6000 Blackwell Server Edition

Оператор ИИ-облака CoreWeave объявил о запуске инстансов с ускорителями NVIDIA RTX Pro 6000 Blackwell Server Edition для генеративных приложений, рендеринга в реальном времени и работы с большими языковыми моделями (LLM). Утверждается, что это первые общедоступные облачные экземпляры, построенные на базе названных GPU.

Изделия RTX Pro 6000 Blackwell Server Edition на архитектуре Blackwell насчитывают 24 064 ядра CUDA, 752 тензорных ядра пятого поколения и 188 ядер RT четвёртого поколения. В оснащение входят 96 Гбайт памяти GDDR7 с пропускной способностью до 1,6 Тбайт/с.

CoreWeave заявляет, что по сравнению с инстансами на основе NVIDIA L40S новые экземпляры обеспечивают 5,6-кратное повышение производительности при LLM-инференсе, 3,5-кратное увеличение быстродействия на операциях преобразования текста в видео и более чем 2-кратное повышение скорости тонкой настройки ИИ-моделей. Заявленная ИИ-производительность в режиме FP4 достигает 3,8 Пфлопс.

 Источник изображения: CoreWeave / NVIDIA

Источник изображения: CoreWeave / NVIDIA

Инстансы CoreWeave с ускорителями NVIDIA RTX Pro 6000 Blackwell Server Edition доступны в конфигурациях, насчитывающих до восьми GPU. Задействованы два процессора Intel Xeon поколения Emerald Rapids, а также DPU NVIDIA BlueField-3. Экземпляры предоставляют свыше 7 Тбайт пространства для хранения данных на основе NVMe SSD.

Говорится о поддержке служб CoreWeave Observability Services, которые отвечают за детальный мониторинг использования ресурсов, а также предоставляют данные о системных ошибках, температуре и пр. Это помогает быстро обнаруживать и устранять проблемы, минимизируя сбои в рабочих процессах. Новые инстансы доступны посредством CoreWeave Kubernetes Service (CKS) и Slurm on Kubernetes (SUNK) в американском регионе CoreWeave US-EAST-04.

Постоянный URL: http://servernews.kz/1125885
11.07.2025 [23:42], Владимир Мироненко

Oracle под давлением Трампа предоставила правительству США 75-% скидку на облако, на очереди — Google Cloud, Azure и AWS

В ближайшие несколько недель будет подписано соглашение Google с правительством США, в рамках которого власти получат значительные скидки на услуги облачных вычислений, сообщила газета Financial Times (FT) со ссылкой на представителя Администрации общих служб (GSA) США, координирующей госзакупки, отметив, что команда Дональда Трампа (Donald Trump) оказывает значительное давление на технологические компании, требуя снижения цен по давним и выгодным контрактам.

До этого на прошлой неделе Oracle заключила с правительством соглашение, в рамках которого временно предоставила 75-% скидку на своё ПО, СУБД и аналитические решения, а также «существенную» скидку на услуги облачных вычислений до конца ноября. По словам высокопоставленного чиновника GSA, по облачному контракту Google, вероятно, будут похожие условия. Аналогичных скидок правительство ожидает от Microsoft Azure и Amazon Web Services, но с ними переговоры пока не продвинулись так далеко, как в случае с Alphabet, материнской компанией Google.

 Источник изображения: Google

Источник изображения: Google

«Каждая из этих компаний полностью вовлечена в процесс и понимает миссию, — говорит чиновник. — Мы добьёмся сделки, сотрудничая со всеми четырьмя игроками». Администрация Трампа пытается сократить расходы на ИТ-решения в рамках общегосударственной инициативы, продвигаемой Департаментом эффективности государственного управления (DOGE), ранее возглавляемым Илоном Маском (Elon Musk). По данным FT, расходы правительства США на облачные технологии в настоящее время превышают $20 млрд/год, причём основная часть этой суммы приходится на контракты с четыре упомянутыми облачными провайдерами.

Аналогичные переговоры ведутся с консалтинговыми компаниями, такими как Booz Allen Hamilton и Deloitte. Также, по словам чиновника, GSA намерена пересмотреть соглашения с компаниями, предоставляющими услуги райдшеринга и имеющими контракты с федеральным правительством.

В апреле Google согласилась предоставить правительству США «временное снижение цен» на 71 % по некоторым контрактам Workspace до конца сентября. Также в рамках соглашений с правительством пошли на уступки Adobe и Salesforce. Последняя снизила цену за использование госслужбами сервиса обмена сообщениями Slack на 90 % до конца ноября.

Постоянный URL: http://servernews.kz/1125847
11.07.2025 [09:09], Сергей Карасёв

В облаке AWS появились инстансы EC2 P6e-GB200 UltraServer на базе ИИ-суперускорителей NVIDIA GB200 NVL72

Облачная платформа AWS объявила о доступности высокопроизводительных инстансов EC2 P6e-GB200 UltraServer, рассчитанных на наиболее ресурсоёмкие нагрузки ИИ. В основу экземпляров положены суперускорители NVIDIA GB200 NVL72.

Система GB200 NVL72 объединяет в одной стойке 18 узлов 1U, каждый из которых содержит два ускорителя GB200, что даёт в общей сложности 72 чипа B200 и 36 процессоров Grace. Задействована шина NVLink 5.

Инстансы u-p6e-gb200-x72 предоставляют доступ к 72 чипам поколения Blackwell в одном домене NVLink, включая примерно 13,4 Тбайт памяти HBM3e. Производительность в режиме FP8 достигает 360 Пфлопс. Количество vCPU составляет до 2592, объём памяти — до 17 280 ГиБ. Кроме того, предоставляется до 405 Тбайт пространства для хранения данных. Используются адаптеры AWS Elastic Fabric Adapter (EFAv4) с низкой задержкой, агрегированной скоростью передачи данных 28,8 Тбит/с и поддержкой NVIDIA GPUDirect RDMA. Пропускная способность EBS достигает 1080 Гбит/с. Также доступны u-p6e-gb200-x36 с вдвое меньшими характеристиками.

 Источник изображений: AWS

Источник изображений: AWS

Применяется система AWS Nitro, которая переносит функции виртуализации, хранения и сетевые операции на выделенное оборудование и ПО для повышения производительности и улучшения безопасности. Инстансы EC2 P6e-GB200 UltraServer объединяются в кластеры EC2 UltraCluster, что обеспечивает возможность безопасного и надёжного масштабирования до десятков тысяч ускорителей.

AWS отмечает, что новые экземпляры подходят для работы с передовыми ИИ-моделями, насчитывающими триллионы параметров. При этом может использоваться сочетание экспертных и рассуждающих моделей. После резервирования ёмкости стоимость за инстанс списывается авансом, и цена не меняется после оплаты.

Постоянный URL: http://servernews.kz/1125797
09.07.2025 [17:37], Владимир Мироненко

Apple подумывала о запуске облака на собственных чипах, но решение так и не приняла

Компания Apple ранее рассматривала возможность запуска собственных облачных сервисов в качестве альтернативы AWS, Microsoft Azure и Google Cloud, но, по всей видимости, отказалась от этой идеи, сообщил ресурс The Information. Проект был известен как Project ACDC (Apple Chips in Data Centers, чипы Apple в дата-центрах). В рамках ACDC компания намеревалась представлять разработчикам доступ к своим фирменным чипам серии Apple M.

Сообщается, что Apple планировала предложить более дешевую и эффективную альтернативу традиционным облачным платформам, использующим серверы Intel или решения других вендоров, заменив их собственными чипами серии M, которые известны своей вычислительной эффективностью и мощными возможностями инференса.

 Источник изображения: Apple

Источник изображения: Apple

Apple использует эти чипы не только для устройств Mac и iPad, но начала их тестирование своих чипов в ЦОД, запустив систему Private Cloud Compute (PCC) для безопасной обработки в облаке ИИ-запросов сервиса Apple Intelligence. Другие сервисы Apple, такие, как Siri, Photos и Music, также используют возможности чипов серии Apple M для повышения скорости обработки данных, в том числе ускорения поиска.

Проект ACDC был бы в значительной степени ориентирован на собственные разработки Apple, позволяя разработчикам создавать приложения для iOS и macOS непосредственно на чипах Apple и снижая тем самым зависимость от дорогостоящих ускорителей сторонних вендоров, отметил ресурс TechRadar. Компания не планировала сформировать новый отдел продаж для ACDC.

И хотя глава Project ACDC Майкл Эбботт (Michael Abbott) покинул компанию в 2023 году, обсуждение этих возможностей продолжалось как минимум до начала 2024 года, сообщают источники. Вместе с тем будущее проекта на данный момент остаётся неопределённым. По данным Apple Insider, компания ежегодно тратит порядка $7 млрд на сторонние облачные сервисы.

Постоянный URL: http://servernews.kz/1125696
09.07.2025 [16:44], Руслан Авдеев

Mistral AI хочет привлечь $1 млрд для конкуренции с OpenAI

Французский ИИ-стартап Mistral AI ведёт переговоры с базирующимся в Абу-Даби (ОАЭ) фондом MGX и другими структурами о привлечении до $1 млрд акционерного капитала, сообщает Bloomberg со ссылкой на осведомлённые источники. По информации источников, кроме акционерного финансирования Mistral пытается привлечь сотни миллионов евро в кредит — переговоры ведутся с французскими компаниями, включая Bpifrance SACA.

На данный момент Bpifrance уже является инвестором Mistral AI. Пока переговоры носят предварительный характер и условия возможной сделки могут быть изменены. Нет точных данных, какой станет капитализация компании после привлечения инвестиций. В самих Mistral, MGX и Bpifrance информацию пока не комментируют.

Предполагается, что сделка укрепит связи Франции и ОАЭ в сфере ИИ, где в последнее время всё отчётливее доминируют США и Китай. Mistral — крупнейший в Европе ИИ-стартап, с момента основания в 2023 году привлёкший более €1 млрд ($1,17 млрд). Его капитализация составила $5,8 млрд после прошлогоднего раунда финансирования. Впрочем, компания не успевает угнаться за конкурентами вроде американской OpenAI, поэтому старается переориентироваться на индивидуальные сервисы.

Тем не менее, она сохраняет ключевую роль в планах Франции добиться суверенитета в сфере ИИ. Mistral, MGX и NVIDIA уже объединили усилия для строительства крупнейшего в Европе кампуса ИИ ЦОД, а власти ОАЭ обещали выделить €50 млрд на ИИ-проекты в стране.

 Источник изображения: Rodrigo Kugnharski/unsplash.com

Источник изображения: Rodrigo Kugnharski/unsplash.com

Французские официальные лица заявили, что MGX предоставит первоначальный капитал для инвестиций ОАЭ. Этот фонд является активным инвестором в ИИ и уже поддерживал OpenAI и xAI. Также это участник проекта Stargate, курируемого OpenAI и другого мегафонда для ЦОД, в который входят NVIDIA и Microsoft.

Ранее в этом году руководство Mistral заявило, что компания потратит несколько миллиардов евро на вычислительные мощности. В том числе предусмотрено строительство ЦОД, оснащённого новейшими чипами, близ Парижа. В июне 2025 года NVIDIA объявила о намерении содействовать развитию ИИ-облака Mistral Compute во Франции с использованием 18 тыс. новых ускорителей Grace Blackwell.

По данным источников, знакомых с планами Mistral, заёмные средства, о которых компания ведёт переговоры, будут истрачены на Mistral Compute. Инвесторами Mistral уже являются Microsoft и американские венчурные фонды Lightspeed Venture Partners, General Catalyst и Andreessen Horowitz.

Постоянный URL: http://servernews.kz/1125690
05.07.2025 [02:13], Владимир Мироненко

CoreWeave первой в отрасли развернула кластер на базе NVIDIA GB300 NVL72

Облачный провайдер CoreWeave объявил о первом в отрасли развёртывании кластера на базе передовой платформы NVIDIA GB300 NVL72, размещённой в интегрированной стоечной системе, поставленной Dell. Развёртыванием кластера занимался оператор ЦОД Switch.

Dell заявила, что стоечные системы поставляются собранными и протестированными. Они изначально разработаны для быстрой установки и развёртывания.

GB300 NVL72 в исполнении Dell представляет собой интегрированное стоечное решение на базе серверов PowerEdge XE9712 с жидкостным охлаждением, которое объединяет 72 ускорителя NVIDIA Blackwell Ultra, 36 Arm-процессоров NVIDIA Grace на базе Arm-архитектуры, интерконнект NVLink и 18 или 36 DPU NVIDIA BlueField-3 в одну мощную платформу, использующую в работе широкий спектр передовых решений NVIDIA.

 Источник изображения: CoreWeave/Switch

Источник изображения: CoreWeave/Switch

Каждая стойка GB300 NVL72 оснащена 21 Тбайт HBM3E и 40 Тбайт RAM. В решении используются 800G-сеть с коммутаторами Quantum-X800 InfiniBand и адаптерами ConnectX-8 SuperNIC. Каждая стойка GB300 NVL72 обеспечивает производительность 1,1 Эфлопс в FP4-вычислениях для инференса и 0,36 Эфлопс в FP8 (без разреженности) для обучения, что на 50 % выше по сравнению с GB200 NVL72.

 Источник изображения: Dell

Источник изображения: Dell

Программная инфраструктура NVIDIA DOCA, работающая на NVIDIA BlueField-3, ускоряет рабочие нагрузки ИИ, обеспечивая пользователям скорость сети до 200 Гбит/с и высокопроизводительный доступ к данным ускорителей. Как отметила CoreWeave, новое оборудование означает для клиентов значительный рост производительности при обработке рабочих нагрузок рассуждающих ИИ-моделей.

Постоянный URL: http://servernews.kz/1125462
04.07.2025 [08:39], Руслан Авдеев

Облако с ИИ: Alibaba расширяет ЦОД в Малайзии и на Филиппинах

Alibaba Group Holding развивает дата-центры в Малайзии и на Филиппинах на волне популярности ИИ-проектов. На днях её облачное подразделение запустило свой третий ЦОД в Малайзии, а в октябре намерено открыть второй дата-центр на Филиппинах, сообщает Bloomberg. Также Alibaba Cloud откроет глобальный центр компетенций в соседнем Сингапуре, что поможет ускорить внедрение ИИ в различных сферах — более 5 тыс. предприятий и 100 тыс. разработчиков получат доступ к передовым ИИ-моделям.

По словам главы Alibaba Эдди Ву (Eddie Wu), долгосрочной стратегией компании является глобализация её бизнеса. В следующие три года Alibaba ускорит создание глобальной облачной сети в Китае, Японии, Южной Корее, странах Юго-Восточной Азии и на Ближнем Востоке. Планируется и экспансия в Европе, США, Таиланд и Мексике. Всего компания намерена потратить на ИИ-инфраструктуру почти $53 млрд.

Пока неизвестно, насколько планы китайского IT-гиганта осуществимы, поскольку совсем недавно появилась информация о масштабном сотрудничестве Малайзии с Huawei в сфере ИИ, но спустя буквально пару дней власти страны дезавуировали прежние заявления на высшем уровне, вероятно, под давлением США.

 Источник изображения:  Michael Rivera/unsplash.com

Источник изображения: Michael Rivera/unsplash.com

Впрочем, Alibaba не испытывает такого санкционного давления, как Huawei, и широко известна операциями в сфере электронной коммерции за пределами Китая. Компания давно занимается системами искусственного интеллекта и создаёт специальные приложения на основе ИИ-моделей Qwen, параллельно развивая облачные сервисы.

После выхода на мировую арену китайского ИИ-стартапа DeepSeek Эдди Ву заявил в феврале 2025 года, что главной целью Alibaba стало создание общего искусственного интеллекта, не уступающего возможностями человеческому сознанию. Это является и целью отрасли в целом.

Постоянный URL: http://servernews.kz/1125364
01.07.2025 [16:02], Руслан Авдеев

Oracle заполучила загадочного облачного клиента, который будет приносить ей $30 млрд/год

Oracle объявила о заключении контракта на поставку облачных услуг стоимостью свыше $30 млрд в год. На короткий период цена акций компании на фоне новостей выросла на 9 %, но позже она несколько снизилась, сообщает Silicon Angle.

Согласно поданному регуляторам документу, данный облачный контракт — лишь один из нескольких, заключённых Oracle с 1 апреля, когда у компании начался 2026 финансовый год. По данным руководства Oracle, новый контракт будет приносить по $30 млрд с 2028 финансового года, но имя заказчика не назвала. Стоимость остальных контрактов тоже не разглашается.

Одним из наиболее вероятных кандидатов является OpenAI. Ранее в этом году компания начала сотрудничать с Oracle в рамках инициативы Stargate, предусматривающей создание сети ИИ ЦОД в США и за их пределами. На проект в следующие четыре года потратят до $500 млрд. Ещё одним кандидатом является ByteDance.

Тратить по $30 млрд ежегодно на облачные сервисы могут позволить себе немногие организации. Так, OpenAI рассчитывает, что к 2029 году её годовая выручка составит $125 млрд, это дало бы компании необходимые средства для подобных закупок. Другие компании вроде Meta и Microsoft, тратящие десятки миллиардов на облака, строят собственные дата-центры.

 Источник изображения: Oracle

Источник изображения: Oracle

Весь бизнес Oracle, связанный с облачными услугами и поддержкой лицензий, принёс ей $24,64 млрд в 2025 финансовом году. Судя по всему, Oracle придётся серьёзно расширить свою облачную инфраструктуру, чтобы соответствовать требованиям клиента.

В рамках Stargate компания строит большой кампус для OpenAI в Техасе. Объекты на площадке будут оснащены чипами NVIDIA на $40 млрд. Также Oracle сообщила, что строит объекты для OpenAI и в других локациях. В целом компания обещала построить больше ЦОД, чем все конкуренты вместе. Капитальные затраты компании в прошлом финансовом году выросли втрое до $21 млрд с $7 млрд в 2024-м. Ранее в этом месяце Oracle сообщила инвесторам, что стоит снова ожидать увеличения расходов.

Компания прогнозирует, что выручка от облачной инфраструктуры в текущем году вырастет более чем на 70 %. Для сравнения, в предыдущем годы рост составил 52 %. Ожидается, что импульс поможет повысить продажи до $100+ млрд в 2029 финансовом году.

Постоянный URL: http://servernews.kz/1125215
01.07.2025 [11:45], Сергей Карасёв

Amazon запустила инстансы EC2 C8gn с чипами Graviton4 для требовательных сетевых нагрузок

AWS представила инстансы EC2 C8gn, рассчитанные на ресурсоёмкие сетевые нагрузки. Они обеспечивают пропускную способность до 600 Гбит/с, что является самым высоким показателем среди оптимизированных для подобных задач экземпляров EC2. В основу новых инстансов положены фирменные процессоры Graviton4 и карты AWS Nitro шестого поколения.

CPU содержат 96 ядер Neoverse V2 (Demeter) с 2 Мбайт кеша L2 в расчёте на ядро. Экземпляры EC2 C8gn предоставляют от 1 до 192 vCPU, а объём оперативной памяти варьируется от 2 до 384 ГиБ. Пропускная способность сетевого подключения составляет от 25 до 600 Гбит/с, пропускная способность EBS — от 10 до 60 Гбит/с. Инстансы можно запускать через консоль управления AWS, интерфейс командной строки (AWS CLI) или AWS SDK.

 Источник изображения: AWS

Источник изображения: AWS

Отмечается, что экземпляры EC2 C8gn подходят для таких задач, как виртуальные брандмауэры, маршрутизаторы, балансировщики нагрузки, прокси-серверы, системы защиты от DDoS-атак, платформы аналитики больших данных и пр. AWS подчёркивает, что инстансы EC2 C8gn обеспечивают на 30 % более высокую вычислительную производительность по сравнению с EC2 C7gn на базе Graviton3. При этом процесс миграции на новые экземпляры не должен вызвать у клиентов сложностей, поскольку EC2 C8gn предлагают схожие соотношения vCPU и памяти. Инстансы EC2 C8gn уже доступны в регионах US East (Северная Вирджиния) и US West (Орегон).

Постоянный URL: http://servernews.kz/1125192
29.06.2025 [21:11], Сергей Карасёв

Таёжное облако: ИИ-кластер Northern Data Njoerd вошёл в рейтинг TOP500

Немецкая компания Northern Data Group, поставщик решений в области ИИ и НРС, объявила о том, что её система Njoerd вошла в июньский рейтинг мощнейших суперкомпьютеров мира TOP500. Этот вычислительный комплекс, расположенный в Великобритании, построен на платформе HPE Cray XD670.

Машина Njoerd попала на 26-е место списка TOP500. Она объединяет 244 узла, каждый из которых содержит восемь ускорителей NVIDIA H100. В общей сложности задействованы примерно 28,5 млн ядер CUDA. Кроме того, в составе системы используются процессоры Intel Xeon Platinum 8462Y+ (32C/64C, 2,8–4,1 ГГц, 300 Вт). Применён интерконнект Infiniband NDR400.

FP64-производительность Njoerd достигает 78,2 Пфлопс, а теоретическое пиковое быстродействие составляет 106,28 Пфлопс. При рабочих нагрузках ИИ суперкомпьютер демонстрирует производительность 3,86 Эфлопс в режиме FP8 и 1,93 Эфлопс в режиме FP16.

Заявленный показатель MFU (Model FLOPs Utilization) при предварительном обучении современных больших языковых моделей (LLM) находится на уровне 50–60 %. Таким образом, как утверждается, система Njoerd на сегодняшний день представляет собой наиболее эффективный кластер H100 подобного размера, оптимизированный для ресурсоёмких рабочих нагрузок ИИ и HPC.

Суперкомпьютер входит в состав Taiga Cloud — одной из крупнейших в Европе облачных платформ, ориентированных на задачи генеративного ИИ. Эта вычислительная инфраструктура использует на 100 % безуглеродную энергию. Показатель PUE варьируется от 1,15 до 1,06. Доступ к ресурсам предоставляется посредством API или через портал самообслуживания. Одним из преимуществ Taiga Cloud компания Northern Data Group называет суверенитет данных.

 Источник изображения: Northern Data Group

Источник изображения: Northern Data Group

Постоянный URL: http://servernews.kz/1125115

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus