Материалы по тегу: ии

13.09.2024 [11:07], Сергей Карасёв

AWS вложит $1,8 млрд в расширение инфраструктуры ЦОД в Бразилии

Облачная платформа Amazon Web Services (AWS), по сообщению Reuters, намерена инвестировать R$10,1 млрд (около $1,8 млрд) в развитие своей инфраструктуры ЦОД в Бразилии. Масштабная инициатива рассчитана на десять лет — до 2034 года. Средства, как отмечается, пойдут на «расширение, строительство, подключение, эксплуатацию и обслуживание дата-центров».

В 2011–2023 гг. AWS уже вложила в создание экосистемы ЦОД в этой стране около R$19,2 млрд ($3,39 млрд). У AWS есть облачный регион в Сан-Паулу с тремя зонами доступности, который был запущен в 2011 году. Кроме того, развёрнуты edge-площадки в Рио-де-Жанейро, Сан-Паулу и Форталезе. В 2020 году компания объявила, что в течение следующих двух лет инвестирует $240 млн в свою бразильскую облачную инфраструктуру, хотя подробности о том, на что будут потрачены эти деньги, не разглашались.

 Источник изображения: Eduardo Soares / Unsplash

Источник изображения: Eduardo Soares / Unsplash

Другие ведущие облачные провайдеры также развивают инфраструктуру в Бразилии. В частности, Microsoft запустила регион São Paulo Azure (Brazil South) в Кампинасе (Campinas) в 2014 году. В 2021-м он был расширен до трёх зон доступности. В текущем году компания начала работу над дополнительными ЦОД в штате Сан-Паулу. В свою очередь, Google запустила бразильский облачный регион, также расположенный в Сан-Паулу, в 2017 году. А на днях принадлежащая DigitalBridge компания Scala Data Centers объявила о намерении построить огромный кампус ИИ ЦОД Scala AI City в бразильском штате Риу-Гранди-ду-Сул (Rio Grande do Sul).

Постоянный URL: http://servernews.kz/1110914
12.09.2024 [21:46], Сергей Карасёв

SiMa.ai представила чипы Modalix для мультимодальных рабочих нагрузок ИИ на периферии

Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения, медицинского диагностического оборудования, edge-серверов и пр.

В семейство Modalix входя четыре модификации — М25, М50, М100 и М200 с ИИ-производительностью 25, 50, 100 и 200 TOPS соответственно (BF16, INT8/16). Изделия наделены процессором общего назначения с восемью ядрами Arm Cortex-A65, работающими на частоте 1,5 ГГц. Кроме того, присутствует процессор обработки сигналов изображения (ISP) на базе Arm Mali-C71 с частотой 1,2 ГГц. В оснащение входят 8 Мбайт набортной памяти. Изделия производятся по 6-нм технологии TSMC и имеют упаковку FCBGA с размерами 25 × 25 мм.

 Источник изображения: SiMa.ai

Источник изображения: SiMa.ai

Чипы Modalix располагают узлом компьютерного зрения Synopsys ARC EV-74 с частотой 1 ГГц. Говорится о возможности декодирования видеоматериалов H.264/265/AV1 в формате 4K со скоростью 60 к/с и кодировании H.264 в формате 4K со скоростью 30 к/с. Реализована поддержка восьми линий PCIe 5.0, четырёх портов 10GbE, четырёх интерфейсов MIPI CSI-2 (по четыре линии 2.5Gb), восьми каналов памяти LPDDR4/4X/5-6400 (до 102 Гбайт/с). Таким образом, по словам SiMa.ai, Modalix покрывает практически весь цикл работы с данными, не ограничиваясь только ускорением ИИ-задач.

 Источник изображения: SiMa.ai

Источник изображения: SiMa.ai

По заявлениям SiMa.ai, чипы Modalix можно применять для работы с большими языковыми моделями (LLM), генеративным ИИ, трансформерами, свёрточными нейронными сетями и мультимодальными приложениями. Среди возможных вариантов использования названы медицинская визуализация и роботизированная хирургия, интеллектуальные приложения для розничной торговли, автономные транспортные средства, беспилотники для инспекции зданий и пр. Есть поддержка популярных фреймворков PyTorch, ONNX, Keras, TensorFlow и т.д. Также предоставляется специализированный набор инструментов под названием Pallet, упрощающий создание ПО для новых процессоров.

Постоянный URL: http://servernews.kz/1110841
12.09.2024 [16:02], Руслан Авдеев

4,75 ГВт для ИИ: Scala Data Centers намерена построить в Бразилии мегакампус ЦОД AI City до, но начнёт с более скромного проекта на 54 МВт

Принадлежащая DigitalBridge компания Scala Data Centers планирует построить огромный кампус ИИ ЦОД Scala AI City в бразильском штате Риу-Гранди-ду-Сул (Rio Grande do Sul). Компания начнёт со скромных 54 МВТ и R$3 млрд ($500 млн) инвестеций, но со временем намерена масштабировать проект до 4,75 ГВт и $90 млрд. Scala уже приобрела около 700 га для AI City в муниципалитете Эльдорадо-ду-Сул (Eldorado do Sul) в 32 км от Порту-Алегри (Porto Alegre).

ЦОД изначально будет рассчитан на поддержку ИИ-нагрузок и предложит 150-кВт стойки с СЖО. Питание будет осуществляться исключительно из возобновляемых источников, PUE не превысит 1,2, а WUE и вовсе будет составлять 0, т.е. ЦОД не будет использовать питьевую воду. Отчасти достичь таких результатов поможет более прохладный климат юга страны. ЦОД будет введён в строй в течение двух лет и станет одним из крупнейших в Бразилии, где общая ёмкость ЦОД составляет 777 МВт.

 Источник изображения: Scala Data Centers

Источник изображения: Scala Data Centers

В комментарии Datacenter Dynamics представитель оператора отметил, что проекты в Латинской Америке во многом отстают в технологическом плане из-за нестабильного курса валют и правовой неопределённости, но теперь ситуация изменилась. Появилась базовая инфраструктура для передачи данных и электроэнергии и огромные возможности генерации «чистой» энергии, равных которым нет во всём мире. В компании напомнили, что в Северной Вирджинии — крупнейшем рынке ЦОД ёмкостью 4 ГВт — вынуждены до семи лет ждать присоединения к энергосети

Тем временем в бразильских сетях имеются 12 ГВт, готовые к использованию, 5 из которых зарезервировала Scala. Предполагается, что в Северной Америке сегодня дата-центрам не хватает 4–6 ГВт. Так что клиенты вполне могут обратиться к бразильским ресурсам, если их не смущает достаточно высокая задержке при передаче данных.

Для сравнения, общая ёмкость дата-центров Microsoft Azure по всему миру оценивается приблизительно в 5 ГВт, хотя компания стремитально наращивает парк ЦОД. Две компании, одна из которых, по слухам, и есть Microsoft, ведут переговоры о строительстве в Северной Дакоте кампусов на 5–10 ГВт. Также на этой неделе Oracle объявила, что построит в США 1-ГВт ЦОД с питанием от малых модульных реакторов (SMR).

UPD 29.09.2024: Scala Data Centers получила $500 млн долгового финансирования, по $250 млн от Coatue Tactical Solutions и Investment Management Corporation of Ontario (IMCO).

Постоянный URL: http://servernews.kz/1110864
11.09.2024 [18:55], Игорь Осколков

Oracle анонсировала зеттафлопсный облачный ИИ-суперкомпьютер из 131 тыс. NVIDIA B200

Oracle и NVIDIA анонсировали самый крупный на сегодняшний день облачный ИИ-кластер, состоящий из 131 072 ускорителей NVIDIA B200 (Blackwell). По словам компаний, это первая в мире система производительностью 2,4 Зфлопс (FP8). Кластер заработает в I половине 2025 года, но заказы на bare-metal инстансы и OCI Superclaster компания готова принять уже сейчас. Заказчики также смогут выбрать тип подключения: RoCEv2 (ConnectX-7/8) или InfiniBand (Quantum-2).

По словам компании, новый ИИ-кластер вшестеро крупнее тех, что могут предложить AWS, Microsoft Azure и Google Cloud. Кроме того, компания предлагает и другие кластеры с ускорителями NVIDIA: 32 768 × A100, 16 384 × H100, 65 536 × H200 и 3840 × L40S. А в следующем году обещаны кластеры на основе GB200 NVL72, объединяющие более 100 тыс. ускорителей GB200. В скором времени также появятся и куда более скромные ВМ GPU.A100.1 и GPU.H100.1 с одним ускорителем A100/H100 (80 Гбайт).

Прямо сейчас для заказы доступны инстансы GPU.H200.8, включающие восемь ускорителей H200 (141 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 200G-подключение. Семейство инстансов на базе NVIDIA Blackwell пока включает лишь два варианта. GPU.B200.8 предлагает восемь ускорителей B200 (192 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 400G-подключение. Наконец, GPU.GB200 фактически представляет собой суперускоритель GB200 NVL72 и включает 72 ускорителя B200, 36 Arm-процессоров Grace и локальное NVMe-хранилище ёмкостью 533 Тбайт. Агрегированная скорость сетевого подключения составляет 7,2 Тбит/с.

 Источник изображения: Oracle

Источник изображения: Oracle

Для всех новых инстансов Oracle подготовит управляемое Lustre-хранилище с производительностью до 8 Гбит/с на каждый Тбайт. Кроме того, компания предложит расширенные средства мониторинга и управления, помощь в настройке инфраструктуры для достижения желаемого уровня реальной производительности, а также набор оптимизированного ПО для работы с ИИ, в том числе для Arm.

Постоянный URL: http://servernews.kz/1110816
11.09.2024 [18:07], Сергей Карасёв

SambaNova запустила «самую быструю в мире» облачную платформу для ИИ-инференса

Компания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1 70B, насчитывающими соответственно 405 и 70 млрд параметров.

В основу сервиса положены ИИ-чипы собственной разработки SN40L. Эти изделия состоят из двух крупных чиплетов, оперирующих 520 Мбайт SRAM-кеша, 1,5 Тбайт DDR5 DRAM, а также 64 Гбайт высокоскоростной памяти HBM3. Утверждается, что восьмипроцессорная система на базе SN40L способна запускать и обслуживать ИИ-модели с 5 трлн параметров и глубиной запроса более 256к.

 Источник изображения: SambaNova

Источник изображения: SambaNova

Платформа SambaNova Cloud, по заявлениям разработчиков, демонстрирует производительность до 132 токенов в секунду при работе с Llama 3.1 405B и до 461 токена в секунду при использовании Llama 3.1 70B. Для сравнения, по оценкам Artificial Analysis, даже самые мощные системы на базе GPU могут обслуживать модель Llama 3.1 405B только со скоростью 72 токена в секунду, а большинство из них намного медленнее. Подчёркивается, что SambaNova Cloud демонстрирует рекордную скорость при сохранении полной 16-битной точности. Однако без компромиссов всё же не обошлось: модель работает не в полном контекстном окне в 128k, а при 8k.

Доступ к SambaNova Cloud предоставляется по трём схемам — Free, Developer и Enterprise. Первая предусматривает бесплатное базовое использование через API. Схема для разработчиков Developer (появится к концу 2024 года) позволяет работать с моделями Llama 3.1 8B, 70B и 405B с более высокими лимитами. Наконец, план Enterprise предлагает корпоративным клиентам возможность масштабирования для поддержки ресурсоёмких рабочих нагрузок.

Ранее Cerebras Systems тоже объявила о запуске «самой мощной в мире» ИИ-платформы для инференса, а Groq ещё в прошлом году говорила о преимуществах своих решений и тоже переключилась на создание облачных сервисов. Впрочем, в бенчмарках MLPerf Inference по-прежнему бессменно лидируют решения NVIDIA.

Постоянный URL: http://servernews.kz/1110773
11.09.2024 [16:25], Владимир Мироненко

AWS инвестирует £8 млрд в расширение облачного бизнеса в Великобритании

Amazon Web Services (AWS) объявила о планах инвестировать £8 млрд ($10,45 млрд) в 2024–2028 гг. в расширение своего облачного бизнеса в Великобритании. Компания отметила, что эти инвестиции являются частью её долгосрочных обязательств по поддержке роста и производительности в стране и, по оценкам, добавят £14 млрд в ВВП Великобритании до 2028 года, а также обеспечат в среднем более 14 тыс. рабочих мест на местных предприятиях из цепочки поставок ЦОД AWS.

Amazon запустила свой первый облачный регион AWS в Великобритании в декабре 2016 года. За последние несколько лет компания добавила три зоны доступности (AZ), две зоны WaveLength Zone, две периферийных локации и Regional Edge Cache. За период с 2020 по 2023 год компания инвестировала в страну £3 млрд, обеспечив работой 6 тыс. жителей.

Аналогичные долгосрочные инвестиционные проекты AWS запустила в Германии, Мексике, США, Саудовской Аравии и Сингапуре. AWS, крупнейший в мире поставщик услуг облачных вычислений и хранения данных, стремится с помощью инвестиций укрепить свои позиции на фоне растущей конкуренции со стороны Microsoft, которая наращивает собственную глобальную инфраструктуру.

 Источник изображения: AWS

Источник изображения: AWS

В пресс-релизе AWS отмечено, что инвестиции позволят Великобритании в полной мере воспользоваться растущими преимуществами облачных вычислений и ИИ. Согласно анализу Telecom Advisory Services, общее экономическое влияние облачных вычислений в Великобритании превысило £42 млрд в 2023 году. Это эквивалентно 1,6 % ВВП. И это больше, чем сектор автомобилестроения Великобритании.

Как утверждает компания, облачные вычисления позволили стартапам, малому бизнесу и государственным органам получить доступ к тем же технологиям, которыми пользуются крупнейшие предприятия, и это помогло им быстрее внедрять инновации, сокращать расходы и конкурировать на мировой арене.

 Источник изображений: aboutamazon.co.uk

Источник изображений: aboutamazon.co.uk

Также AWS приводит результаты исследования независимой консалтинговой компании Public First, в рамках котороо она опросила более 2000 руководителей бизнеса и построила новую экономическую модель связей между цифровыми технологиями и производительностью бизнеса. Согласно опросу Public First, 84 % респондентов, являющихся клиентами AWS, заявили, что в результате инвестирования в облачную инфраструктуру они сэкономили средства, при этом в среднем экономия составила 28 % по сравнению с использованием локальной инфраструктуры.

Респонденты также заявили, что использование AWS сокращает время развертывания нового ПО более чем на четверть (27 %). Кроме того, 82% клиентов AWS считают, что облачные вычисления позволили им вывести свой бизнес на глобальный уровень, а 85 % — облегчило конкуренцию с более крупными компаниями.

 Источник изображения: AWS

Источник изображения: AWS

В свою очередь, ресурс The Register отметил, что инвестиции облачного гиганта вовсе не бескорыстны. В прошлом году AWS увеличила доходы в Великобритании на 30,1 % до £3,78 млрд, а также получила на 76 % больше прямых доходов в государственном секторе от правительства Великобритании в течение предыдущего финансового года. В декабре прошлого года стало известно, что AWS получила контракт на услуги облачного хостинга для Министерства внутренних дел Великобритании на сумму почти полмиллиарда фунтов стерлингов (£450 281 369).

Вместе с тем Amazon подверглась критике за недостаточную прозрачность в отношении налоговых выплат, поскольку доходы AWS UK были представлены как часть бюджета Amazon Web Services EMEA SARL. Газета Guardian сообщила в прошлом году, что материнская компания облачного гиганта Amazon второй год подряд не платила корпоративный налог после получения налоговых льгот на свои инвестиции в инфраструктуру. Также известно, что в Великобритании сейчас проводится антимонопольное расследование по поводу возможного применения AWS антимонопольных практик.

Марк Буст (Mark Boost), генеральный директор британского оператора облачных вычислений Civo, подверг критике инвестиции AWS, заявив: «Дорогая инфраструктура ЦОД и оборудование ИИ <…> не производятся и не продаются британскими компаниями». «Британские новаторы в области ЦОД заслуживают справедливого шанса сыграть свою роль в цифровом будущем страны, без чрезмерной зависимости от гиперскейлеров исключительно из-за масштаба, который они могут предложить», — добавил он.

Постоянный URL: http://servernews.kz/1110806
11.09.2024 [14:43], Руслан Авдеев

«Альфа-Банк» присоединился к проекту трансевразийской магистральной линии связи TEA NEXT

Проект ВОЛС TEA NEXT («Транзит Европа—Азия нового поколения») получил нового участника — «Альфа-Банк». При этом, как сообщает «Коммерсантъ», экспертам неизвестно, какие именно цели преследует данная структура — вероятно, речь идёт о финансовом интересе. В прошлом году проект покинул ВЭБ.РФ. При этом в условиях санкций востребованность TEA NEXT за рубежом подвергается сомнению.

«Альфа-Банк» приобрёл 49,99 % ООО «Атлас», которое отвечает за строительство TEA NEXT. Основанная в 2021 году компания создавалась «Ростелекомом» («Ветселком», 100% у «Ростелекома») и ВЭБ.РФ (VEB Ventures), но ВЭБ.РФ покинул проект после введённых против него западных санкций и теперь по 49,99 % находится в собственности дочернего предприятия «Ростелекома» и «Альфа-Банка», а 0,02 % — у гендиректора ООО «Атлас» Александра Ратушного.

Изначально планировалось вложить в строительство $650 млн, а после передачи прав собственности от ВЭБ.РФ «Альфа-Банку» финансовые условия, по данным источников, не изменились. Эксперты предполагают, что «Альфа-Банк» не намерен оказывать технологическое влияние и имеет исключительно финансовый интерес.

 Источник изображения: tea-next.ru

Источник изображения: tea-next.ru

«Ростелеком» готов предоставлять в аренду инфраструктуру TEA NEXT клиентам в России. В начале 2024 года был завершён первый этап строительства, вторая очередь тоже готова к коммерческой эксплуатации, а строительство третьей началось в декабре 2023 года. По имеющимся данным, реализация проекта будет продолжаться до 2026 года, а саму магистраль планируется дотянуть до Южной Кореи. Ранее сообщалось, что проект является одним из ключевых для производства оптоволокна в России — оно значительно сократилось в последнее время, а без TEA NEXT показатели были бы ещё хуже.

Сегодня транзит трафика через Россию составляет 6 Тбит/с (+15 % за год), говорят в «Транстелекоме». В компании считают востребованным транзит данных по маршруту Европа–Китай по российской территории. Но как сообщает «Коммерсантъ» со ссылкой на председателя «Российско-азиатского союза промышленников и предпринимателей» Виталия Манкевича, велика вероятность того, что TEA NEXT попадёт под санкции на одном из этапов, что негативно скажется на транзите зарубежного трафика.

Постоянный URL: http://servernews.kz/1110798
11.09.2024 [14:20], Руслан Авдеев

Google заключила соглашение с Holocene по захвату углекислого газа из воздуха по $100 за тонну

Компания Google выделит $10 млн стартапу Holocene на захват CO2 из атмосферы по технологии Direct Air Capture (DAC) с последующей утилизацией. Сделка является рекордно выгодной в индустрии. За захват каждой тонны углекислого газа Google заплатит всего $100. Министерство энергетики США считает, что именно такой уровень цен позволит стать технологии массовой. Правда, как уточняет Datacenter Dynamics, непосредственная реализация проекта должна стартовать в начале 2030-х годов.

Впрочем, столь низкая цена в любом случае была бы невозможной без вмешательства американских властей. Они предоставляют налоговую льготу 45Q, благодаря которой компании, утилизирующие углекислый газ, могут рассчитывать ещё на $180/т.

 Источник изображения:  Marcin Jozwiak/unsplash.com

Источник изображения: Marcin Jozwiak/unsplash.com

Google оплатит авансом, хотя в этом есть некоторый риск. Отсутствует гарантия, что Holocene вообще добьётся своих целей. Так, Running Tide, которой Microsoft заплатила за удаление из атмосферы 12 тыс. тонн CO2 в 2023 году, в 2024-м прекратила своё существование. В Google заявляют, что немедленная уплата средств позволит добиться амбициозных масштабных целей уже в среднесрочной перспективе.

 Источник изображения: Holocene

Источник изображения: Holocene

Holocene пропускает воздух сквозь специальный «водопад» с добавлением аминокислоты, которая связывает CO2. Полученный состав смешивается с гуанидином для формирования твёрдой кристаллической массы. Потом аминокислота высвобождается и отправляется в начало цикла, а твёрдое вещество слегка нагревается, высвобождая чистый углекислый газ, который можно хранить или использовать по своему усмотрению. Гуанидин также отправляется в начало цикла. В начале 2030-х годов Holocene рассчитывает захватить и хранить 100 тыс. тонн CO2.

Ранее в этом году Google обещала потратить $35 млн на проекты по захвату углекислоты. Кроме того, компания участвует в инициативе Frontier Climate, предусматривающей покупки «кредитов» на захват CO2. Стартап 280earth, выросший из проекта Google X, намерен разрабатывать собственные мощности по захвату углекислого газа в Орегоне, вероятно, с использованием тепла дата-центров самой Google.

Постоянный URL: http://servernews.kz/1110790
11.09.2024 [13:07], Сергей Карасёв

Zettlab представила NAS с ИИ-функциями и поддержкой до восьми накопителей

Компания Zettlab, по сообщению ресурса NAS Compares, анонсировала сетевые хранилища AI NAS D4, D6, D6 Ultra и D8 Ultra с ИИ-возможностями. Устройства ориентированы на профессиональных пользователей и предприятия, которые работают с большими массивами данных или обширными библиотеками мультимедийных материалов.

Все решения выполнены в «настольном» форм-факторе. Они спроектированы с прицелом на интеграцию ИИ-функций, в том числе запуск больших языковых моделей (LLM), без необходимости подключения к интернету или применения сторонних сервисов. Системы Zettlab AI NAS предоставляют инструменты для интеллектуальной обработки данных и управления ими, поиска информации, запросов на естественном языке, и пр.

Модели D4 и D6 рассчитаны соответственно на четыре и шесть накопителей LFF с интерфейсом SATA-3 суммарной вместимостью до 100 и 148 Тбайт. Дополнительно имеется коннектор для M.2 SSD. В устройства установлен процессор Rockchip RK3588 (4 × Cortex-A76, 4 × Cortex-A55, Arm Mali-G610 MP4) с частотой до 2,4 ГГц. В состав чипа входит NPU производительностью до 6 TOPS. Объём оперативной памяти LPDDR4x составляет 16 Гбайт. Есть сетевые порты 2.5GbE и 1GbE, по одному разъёму USB 4 и USB 3.х, два порта USB 2.0.

 Источник изображений: Zettlab

Источник изображений: Zettlab

Хранилища D6 Ultra и D8 Ultra, в свою очередь, допускают установку шести и восьми накопителей LFF с интерфейсом SATA-3 суммарной ёмкостью до 152 и 200 Тбайт (плюс PCIe SSD). Применён процессор Intel Core Ultra 5 125H (14 ядер; 18 потоков; до 4,5 ГГц) с NPU-блоком (до 34 TOPS). Объём ОЗУ стандарта DDR5 равен 16 Гбайт с возможностью расширения до 96 Гбайт. Предусмотрены два сетевых порта 10GbE, два разъёма USB 4 и порт USB 3.х.

Все новинки располагают информационным дисплеем с диагональю 3,49″ и интерфейсом HDMI с поддержкой 4К-видео. В продажу NAS поступят в конце 2024-го или в начале 2025 года.

Постоянный URL: http://servernews.kz/1110772
11.09.2024 [01:18], Владимир Мироненко

Oracle построит гигаваттный ИИ ЦОД с питанием от малых модульных реакторов

Акции Oracle выросли во вторник более чем на 10 % после публикации отчёта за I квартал 2025 финансового года, завершившегося 31 августа. Выручка компании выросла на 7 % с $12,5 млрд годом ранее до $13,3 млрд при консенсус-прогнозе аналитиков, опрошенных FactSet, в $13,2 млрд. Скорректированная прибыль на акцию (Non-GAAP) составила $1,39 при прогнозе аналитиков $1,33.

Выручка Oracle от облачных сервисов (IaaS и SaaS) выросла год к году на 21 % до $5,6 млрд. Выручка от лицензирования облачных продуктов увеличилась на 7 % до $870 млн, а выручка сегмента Cloud Infrastructure (IaaS) увеличилась на 45 % до $2,2 млрд. «Поскольку облачные сервисы стали крупнейшим бизнесом Oracle, рост как нашего операционного дохода, так и прибыли на акцию ускорился», — указала в пресс-релизе гендиректор Oracle Сафра Кац (Safra Catz). Чистая прибыль (GAAP) компании составила $2,9 млрд или $1,03 на акцию, по сравнению с $2,4 млрд или $0,86 на акцию годом ранее (рост — 21 %).

Кац также сообщила в отчёте о заключении соглашения с AWS о размещении СУБД-инфраструктуры Oracle Database. AWS является крупнейшим поставщиком облачных сервисов по доле рынка. В отдельном пресс-релизе, посвящённом сделке, председатель и главный технический директор Ларри Эллисон (Larry Ellison) сообщил, что Oracle видит «огромный спрос» со стороны клиентов на работу с несколькими провайдерами облачных услуг. Таким образом, Oracle смогла склонить к сотрудничеству всё трёх ключевых игроков облачного рынка — ранее аналогичные сделки были заключены с Google и Microsoft.

 Источник изображения: Oracle

Источник изображения: Oracle

«Чтобы удовлетворить этот спрос и предоставить клиентам выбор и гибкость, которые им нужны, Amazon и Oracle бесшовно соединяют сервисы AWS с новейшей технологией Oracle Database, включая Oracle Autonomous Database», — сказал Эллисон. «Благодаря развёртыванию инфраструктуры Oracle Cloud внутри ЦОД AWS мы можем предоставить клиентам максимально возможную производительность базы данных и сети», — добавил он.

Эллисон рассказал, что у Oracle есть 162 действующих и строящихся облачных ЦОД по всему миру. Самый большой из них имеет будет ёмкость 800 МВт, что позволит разместить множество кластеров ускорителей NVIDIA для обучения крупномасштабных моделей ИИ. А площадки для размещения ускорителей компании очень нужны, поскольку в отчётном квартале Oracle подписала 42 дополнительных контракта на облачные GPU на общую сумму $3 млрд, но не смогла заключить $10-млрд сделку с xAI.

Однако это не предел и компания «скоро» начнёт строительство ЦОД мощностью более 1 ГВт. По словам Эллисона, для одного из этих проектов уже выбрано место, и он находится в процессе проектирования. ЦОД будет работать на атомной энергии, поскольку Oracle получила разрешение на три малых модульных ядерных реакторов (SMR). Аналогичные проекты разрабатываются с участием компании Oklo, поддерживаемой главой OpenAI Сэмом Альтманом (Sam Altman). Впрочем, последняя уже присматривается к термоядерной энергетике. Microsoft, тесно связанная с OpenAI, тоже изучает SMR. Amazon же не стала мудрствовать и просто приобрела кампус, напрямую запитанный от обычной АЭС.

В текущем финансовом квартале компания ожидает получить скорректированную прибыль (Non-GAAP) в пределах $1,45–1,49 на акцию при росте выручки год к году на 7–9 %. Согласно консенсус-прогнозу аналитиков, опрошенных FactSet, скорректированная прибыль Oracle составит $1,48 на акцию.

Постоянный URL: http://servernews.kz/1110763
Система Orphus