Материалы по тегу: облако

04.07.2025 [08:39], Руслан Авдеев

Облако с ИИ: Alibaba расширяет ЦОД в Малайзии и на Филиппинах

Alibaba Group Holding развивает дата-центры в Малайзии и на Филиппинах на волне популярности ИИ-проектов. На днях её облачное подразделение запустило свой третий ЦОД в Малайзии, а в октябре намерено открыть второй дата-центр на Филиппинах, сообщает Bloomberg. Также Alibaba Cloud откроет глобальный центр компетенций в соседнем Сингапуре, что поможет ускорить внедрение ИИ в различных сферах — более 5 тыс. предприятий и 100 тыс. разработчиков получат доступ к передовым ИИ-моделям.

По словам главы Alibaba Эдди Ву (Eddie Wu), долгосрочной стратегией компании является глобализация её бизнеса. В следующие три года Alibaba ускорит создание глобальной облачной сети в Китае, Японии, Южной Корее, странах Юго-Восточной Азии и на Ближнем Востоке. Планируется и экспансия в Европе, США, Таиланд и Мексике. Всего компания намерена потратить на ИИ-инфраструктуру почти $53 млрд.

Пока неизвестно, насколько планы китайского IT-гиганта осуществимы, поскольку совсем недавно появилась информация о масштабном сотрудничестве Малайзии с Huawei в сфере ИИ, но спустя буквально пару дней власти страны дезавуировали прежние заявления на высшем уровне, вероятно, под давлением США.

 Источник изображения:  Michael Rivera/unsplash.com

Источник изображения: Michael Rivera/unsplash.com

Впрочем, Alibaba не испытывает такого санкционного давления, как Huawei, и широко известна операциями в сфере электронной коммерции за пределами Китая. Компания давно занимается системами искусственного интеллекта и создаёт специальные приложения на основе ИИ-моделей Qwen, параллельно развивая облачные сервисы.

После выхода на мировую арену китайского ИИ-стартапа DeepSeek Эдди Ву заявил в феврале 2025 года, что главной целью Alibaba стало создание общего искусственного интеллекта, не уступающего возможностями человеческому сознанию. Это является и целью отрасли в целом.

Постоянный URL: http://servernews.kz/1125364
01.07.2025 [16:02], Руслан Авдеев

Oracle заполучила загадочного облачного клиента, который будет приносить ей $30 млрд/год

Oracle объявила о заключении контракта на поставку облачных услуг стоимостью свыше $30 млрд в год. На короткий период цена акций компании на фоне новостей выросла на 9 %, но позже она несколько снизилась, сообщает Silicon Angle.

Согласно поданному регуляторам документу, данный облачный контракт — лишь один из нескольких, заключённых Oracle с 1 апреля, когда у компании начался 2026 финансовый год. По данным руководства Oracle, новый контракт будет приносить по $30 млрд с 2028 финансового года, но имя заказчика не назвала. Стоимость остальных контрактов тоже не разглашается.

Одним из наиболее вероятных кандидатов является OpenAI. Ранее в этом году компания начала сотрудничать с Oracle в рамках инициативы Stargate, предусматривающей создание сети ИИ ЦОД в США и за их пределами. На проект в следующие четыре года потратят до $500 млрд. Ещё одним кандидатом является ByteDance.

Тратить по $30 млрд ежегодно на облачные сервисы могут позволить себе немногие организации. Так, OpenAI рассчитывает, что к 2029 году её годовая выручка составит $125 млрд, это дало бы компании необходимые средства для подобных закупок. Другие компании вроде Meta и Microsoft, тратящие десятки миллиардов на облака, строят собственные дата-центры.

 Источник изображения: Oracle

Источник изображения: Oracle

Весь бизнес Oracle, связанный с облачными услугами и поддержкой лицензий, принёс ей $24,64 млрд в 2025 финансовом году. Судя по всему, Oracle придётся серьёзно расширить свою облачную инфраструктуру, чтобы соответствовать требованиям клиента.

В рамках Stargate компания строит большой кампус для OpenAI в Техасе. Объекты на площадке будут оснащены чипами NVIDIA на $40 млрд. Также Oracle сообщила, что строит объекты для OpenAI и в других локациях. В целом компания обещала построить больше ЦОД, чем все конкуренты вместе. Капитальные затраты компании в прошлом финансовом году выросли втрое до $21 млрд с $7 млрд в 2024-м. Ранее в этом месяце Oracle сообщила инвесторам, что стоит снова ожидать увеличения расходов.

Компания прогнозирует, что выручка от облачной инфраструктуры в текущем году вырастет более чем на 70 %. Для сравнения, в предыдущем годы рост составил 52 %. Ожидается, что импульс поможет повысить продажи до $100+ млрд в 2029 финансовом году.

Постоянный URL: http://servernews.kz/1125215
01.07.2025 [11:45], Сергей Карасёв

Amazon запустила инстансы EC2 C8gn с чипами Graviton4 для требовательных сетевых нагрузок

AWS представила инстансы EC2 C8gn, рассчитанные на ресурсоёмкие сетевые нагрузки. Они обеспечивают пропускную способность до 600 Гбит/с, что является самым высоким показателем среди оптимизированных для подобных задач экземпляров EC2. В основу новых инстансов положены фирменные процессоры Graviton4 и карты AWS Nitro шестого поколения.

CPU содержат 96 ядер Neoverse V2 (Demeter) с 2 Мбайт кеша L2 в расчёте на ядро. Экземпляры EC2 C8gn предоставляют от 1 до 192 vCPU, а объём оперативной памяти варьируется от 2 до 384 ГиБ. Пропускная способность сетевого подключения составляет от 25 до 600 Гбит/с, пропускная способность EBS — от 10 до 60 Гбит/с. Инстансы можно запускать через консоль управления AWS, интерфейс командной строки (AWS CLI) или AWS SDK.

 Источник изображения: AWS

Источник изображения: AWS

Отмечается, что экземпляры EC2 C8gn подходят для таких задач, как виртуальные брандмауэры, маршрутизаторы, балансировщики нагрузки, прокси-серверы, системы защиты от DDoS-атак, платформы аналитики больших данных и пр. AWS подчёркивает, что инстансы EC2 C8gn обеспечивают на 30 % более высокую вычислительную производительность по сравнению с EC2 C7gn на базе Graviton3. При этом процесс миграции на новые экземпляры не должен вызвать у клиентов сложностей, поскольку EC2 C8gn предлагают схожие соотношения vCPU и памяти. Инстансы EC2 C8gn уже доступны в регионах US East (Северная Вирджиния) и US West (Орегон).

Постоянный URL: http://servernews.kz/1125192
29.06.2025 [21:11], Сергей Карасёв

Таёжное облако: ИИ-кластер Northern Data Njoerd вошёл в рейтинг TOP500

Немецкая компания Northern Data Group, поставщик решений в области ИИ и НРС, объявила о том, что её система Njoerd вошла в июньский рейтинг мощнейших суперкомпьютеров мира TOP500. Этот вычислительный комплекс, расположенный в Великобритании, построен на платформе HPE Cray XD670.

Машина Njoerd попала на 26-е место списка TOP500. Она объединяет 244 узла, каждый из которых содержит восемь ускорителей NVIDIA H100. В общей сложности задействованы примерно 28,5 млн ядер CUDA. Кроме того, в составе системы используются процессоры Intel Xeon Platinum 8462Y+ (32C/64C, 2,8–4,1 ГГц, 300 Вт). Применён интерконнект Infiniband NDR400.

FP64-производительность Njoerd достигает 78,2 Пфлопс, а теоретическое пиковое быстродействие составляет 106,28 Пфлопс. При рабочих нагрузках ИИ суперкомпьютер демонстрирует производительность 3,86 Эфлопс в режиме FP8 и 1,93 Эфлопс в режиме FP16.

Заявленный показатель MFU (Model FLOPs Utilization) при предварительном обучении современных больших языковых моделей (LLM) находится на уровне 50–60 %. Таким образом, как утверждается, система Njoerd на сегодняшний день представляет собой наиболее эффективный кластер H100 подобного размера, оптимизированный для ресурсоёмких рабочих нагрузок ИИ и HPC.

Суперкомпьютер входит в состав Taiga Cloud — одной из крупнейших в Европе облачных платформ, ориентированных на задачи генеративного ИИ. Эта вычислительная инфраструктура использует на 100 % безуглеродную энергию. Показатель PUE варьируется от 1,15 до 1,06. Доступ к ресурсам предоставляется посредством API или через портал самообслуживания. Одним из преимуществ Taiga Cloud компания Northern Data Group называет суверенитет данных.

 Источник изображения: Northern Data Group

Источник изображения: Northern Data Group

Постоянный URL: http://servernews.kz/1125115
27.06.2025 [12:37], Руслан Авдеев

Digital Realty выбрала HPE Private Cloud для модернизации своего парка ЦОД по всему миру

Компания HPE объявила о том, что оператор ЦОД Digital Realty намерен стандартизировать свою инфраструктуру по всему миру, которая включает 300 ЦОД в 25 странах и регионах, взяв за основу HPE Private Cloud Business Edition, сообщает пресс-служба компании. В результате Digital Realty сможет обрабатывать огромные объёмы данных, одновременно упростив управление ЦОД, повысив уровень безопасности и надёжности.

Как заявил представитель Digital Realty, компания владеет и управляет передовыми ЦОД по всему миру, что требует технологий для масштабирования в соответствии с ростом потребностей клиентов. HPE Private Cloud Business Edition обеспечит такое масштабирование и оптимизированное управление инфраструктурой с предсказуемой стоимостью владения.

Модернизация дата-центров поможет Digital Realty повысить операционную эффективность и управление рабочими нагрузками с минимизацией затрат. HPE позволяет полностью автоматизировать настройку инфраструктуры и управление жизненным циклом ЦОД, что даст Digital Realty возможность уделять меньше внимания решению инфраструктурных вопросов и больше концентрироваться на обеспечении бизнес-результатов для клиентов.

 Источник изображения: HPE

Источник изображения: HPE

Как заявили в HPE, Digital Realty стала исключительным технологическим и колокейшн-партнёром компании, оказав огромное доверие технологиям частных облаков, предлагаемым HPE. По данным HPE, HPE Private Cloud Business Edition снижает совокупную стоимость владения до 2,5 раз в сравнении с решениями конкурентов, а с помощью ПО HPE Morpheus VM Essentials и СХД HPE Alletra Storage MP B10000 управление ЦОД значительно упрощается.

Работая с партнёром HPE, компанией Infradax, Digital Realty уже оценила некоторые решения для хранения данных, после чего приняла решение о полной интеграции продуктов HPE. HPE и World Wide Technology (WWT) будут сотрудничать в деле развёртывания новых решений в дата-центрах Digital Realty по всему миру.

Постоянный URL: http://servernews.kz/1125045
25.06.2025 [18:44], Владимир Мироненко

HPE представила новые решения для частных ИИ-фабрик на базе продуктов NVIDIA

HPE представила комплексный набор решений, предназначенных для ускорения создания, внедрения и управления ИИ-фабриками на протяжении всего жизненного цикла ИИ. Эти решения адаптированы для использования практически для всех организаций, независимо от размера или отрасли, говорит компания.

HPE расширила своё портфолио NVIDIA AI Computing by HPE, добавив ускорители NVIDIA Blackwell, включая новые компонуемые решения, оптимизированные для поставщиков услуг, разработчиков моделей и суверенных субъектов. Также было добавлено следующее поколение решений HPE Private Cloud AI — готового решения для ИИ-фабрик на предприятиях. Предлагаемые интегрированные, комплексные решения и услуги для ИИ-фабрик позволяют устранить для клиентов необходимость самостоятельно собирать полный стек ИИ-технологий при создании современного ИИ ЦОД.

В основе портфолио NVIDIA AI Computing by HPE лежит решение HPE Private Cloud AI, представляющее собой полностью интегрированную, готовую ИИ-фабрику. Private Cloud AI обеспечит:

  • Поддержку ускорителей Blackwell серверами HPE ProLiant Compute Gen12, которые предоставляют защищённые анклавы для предотвращения несанкционированного доступа, используют постквантовую криптографию и предлагают надёжную цепочку поставок на уровне стойки и сервера.
  • Защиту инвестиций и бесшовную масштабируемость от одного поколения ускорителей к другому, включая H200 NVL и новейшие RTX PRO 6000 Server Edition, для поддержки широкого спектра ИИ-нагрузок, включая агентские и физические ИИ-приложения. Новая федеративная архитектура обеспечивает эффективное объединение ресурсов, позволяя всем ИИ-нагрузкам использовать новейшие ускорители и аппаратные ресурсы.
  • Управление с физической изоляцией (air-gap) для организаций со строгими требованиями к конфиденциальности данных.
  • Многопользовательский доступ, которые позволяет предприятиям разделять ресурсы между командами.
  • Участие в новейших проектах NVIDIA AI Blueprint, включая NVIDIA AI-Q Blueprint для создания ИИ-агентов и шаблонов рабочих процессов.
  • Участие в новой программе «попробуй и купи», которая позволяет клиентам оценить частное ИИ-облако в сети ЦОД Equinix перед принятием решения о покупке.
 Источник изображения: HPE

Источник изображения: HPE

Новые ИИ-фабрики объединяют инновации и опыт HPE в области ИИ, достижения в области разработки жидкостного охлаждения и ПО HPE Morpheus Enterprise.

  • ПО HPE OpsRamp обеспечивает полную наблюдаемость в Private Cloud AI, оно же сертифицировано для NVIDIA Enterprise AI Factory.
  • Для крупных клиентов HPE предлагает для системы HPE ProLiant Compute XD, ПО NVIDIA AI Enterprise, технологии воздушного и жидкостного охлаждения, а также полный спектр консультационных и профессиональных услуг.
  • Для государств, правительств и госорганизаций предлагаются дополнительные возможности, такие как автономное управление, а также решения и услуги, которые обеспечивают суверенитет данных, технологий и операций.
 Источник изображения: HPE

Источник изображения: HPE

Благодаря совместимости с архитектурой NVIDIA Enterprise AI Factory ИИ-фабрики HPE могут быть развёрнуты с использованием новейших ускорителей NVIDIA, решений Spectrum-X Ethernet, DPU NVIDIA BlueField-3 и ПО NVIDIA AI Enterprise. Портфолио NVIDIA AI Computing by HPE также пополнила система HPE Compute XD690 (поставки начнутся в октябре) на платформе NVIDIA HGX B300. HPE Performance Cluster Manager обеспечивает полностью интегрированное управление системами и расширенный мониторинг инфраструктуры и оповещения в больших, сложных ИИ-средах с масштабированием до тысячи узлов.

Чтобы обеспечить непрерывную подачу готовых к ИИ-нагрузкам неструктурированных данных для ИИ-фабрик и приложений, СХД HPE Alletra Storage MP X10000 будет поддерживать серверы с поддержкой Model Context Protocol (MCP), которая появится во II половине 2025 года. В дополнение X10000 поддерживает эталонный дизайн NVIDIA AI Data Platform и предлагает SDK для оптимизации неструктурированных конвейеров данных для обработки, инференса, обучения и процесса непрерывного приобретения знаний и навыков.

HPE сообщила, что программа Unleash AI пополнилась 26 новыми партнёрами. Также было объявлено, что сотрудничество HPE и Accenture с целью создания агентских ИИ-решений для финансовых сервисов и закупок, получило реализацию в новом совместном предложении для выхода на рынок, которое использует платформу Accenture AI Refinery, созданную на базе NVIDIA AI Enterprise и развёрнутую на HPE Private Cloud AI.

Постоянный URL: http://servernews.kz/1124935
25.06.2025 [13:34], Руслан Авдеев

SambaNova делает ставку на инференс и партнёрство с облачными провайдерами и госзаказчиками

Разработчик ИИ-ускорителей SambaNova Systems объявил о стратегическом изменении профиля деятельности. Теперь основное внимание будет уделено инференсу, а не обучению ИИ-моделей, сообщает EE Times со ссылкой на главу компании Родриго Ляна (Rodrigo Liang). Тот считает, что в ближайшие годы инференс станет ключевым направлением в ИИ-секторе.

Переосмысление стратегии привело к увольнению 77 сотрудников в апреле 2025 года. Компания всё ещё будет поддерживать обучение ИИ-моделей, но признаёт, что спрос на крупные кластеры для этих целей заметно снизился. Многие клиенты переходят на открытые модели, адаптируя и дообучая их — разработчики не желают создавать свои LLM с нуля. Поэтому теперь SambaNova будет предоставлять предприятиям и правительственным структурам инструменты для развёртывания открытых и доработанных моделей, в том числе «рассуждающих».

Основными клиентами компании сегодня являются крупные предприятия и «суверенные» государственные заказчики, заинтересованные в сокращении затрат. У госзаказчиков особые требования, в частности — независимость от США и других стран. Кроме того, они используют модели, обученные на локальных данных и ориентированные на специфику национальных экономик. Поскольку стойки компании потребляют всего по 10 кВт, позволить их себе могут даже страны со слабой энергетической инфраструктурой.

 Источник изображения: Magnet.me/unsplash.com

Источник изображения: Magnet.me/unsplash.com

Хотя у SambaNova есть собственная облачная инфраструктура с поддержкой открытых моделей, компания не намерена строить крупные кластеры для инференса. Вместо этого она организует партнёрство с облачными провайдерами, предоставляя им технологии для создания ИИ-облаков. Некоторыми партнёрами стали региональные облачные провайдеры, намеренные развернуть собственные ИИ-экосистемы. Платформа SambaNova Cloud играет роль демонстрационной площадки и не претендует на конкуренцию с другими провайдерами, являясь шаблоном, по образцу которого можно развёртывать аналогичные схемы «под ключ».

Технологии SambaNova позволяют запускать до 100 разных копий Llama-70B в одной стойке. Это отличный вариант для компаний, которым нужны разные варианты моделей для финансового, юридического и других отделов, для разных целей. По словам компании, у конкурентов для каждой версии модели требуется стойка на 140 кВт, в то время как SambaNova позволяет использовать стойки на 10 кВт для запуска множества моделей, причём переключение с одной на другую осуществляется «за миллисекунду». Это позволяет компаниям экономить значительные средства.

Осенью 2024 года SambaNova объявила о запуске самой быстрой на тот момент облачной платформы для ИИ-инференса. В этом она соревнуется с Cerebras и Groq, которые пытаются составить конкуренцию NVIDIA. Стоит отметить, что Groq также сменила бизнес-подход, отказавшись от продажи отдельных ускорителей в пользу оснащения целых ИИ ЦОД для инференса. Cerebras совместно с партнёрами создаёт крупные ИИ-суперкомпьютеры и кластеры. От обучения моделей она не отказывается.

Постоянный URL: http://servernews.kz/1124917
25.06.2025 [09:04], Руслан Авдеев

Недоступность ИИ-инфраструктуры усилит цифровое, экономическое и политическое неравенство

Искусственный интеллект становится основой глобальных инноваций, поэтому для развития стран наличия одних только талантов и идей мало, важно и наличие оборудование для работы с ИИ. Согласно исследованию учёных из Оксфордского университета, всего три десятка стран в мире обладают специализированными ИИ ЦОД, причём расположены они преимущественно в Северном полушарии планеты. Большинство же доступа к подобным технологиям не имеет, передаёт Tech Republic.

В докладе подчёркивается, что только в США и Китае эксплуатируются более 90 % ИИ ЦОД. Американские техногиганты, включая AWS, Microsoft и Google, управляют 87 крупными ИИ ЦОД по всему миру, китайские компании — 39 площадками, а европейские — всего шестью. Африка, Южная Америка и Россия на карте фактически не отмечены, хотя в России ИИ-суперкомпьютеры есть. Кроме того, Гонконг и Тайвань посчитаны как отдельные страны.

Так или иначе, более чем в 150 странах мира полноценная инфраструктура ИИ ЦОД отсутствует полностью, а без доступа к таким технологиям они рискуют отстать в освоении ИИ, в научных исследованиях и в экономическом развитии. Есть и ещё один важный фактор — технологический суверенитет. Многие государства вынужденно полагаются на мощности иностранных IT-гигантов, аренда которых обходится дорого, да и находятся они в чужой юрисдикции. Для стартапов и исследователей из ряда регионов Африки, Южной Америки и Юго-Восточной Азии это большая проблема.

По словам президента Microsoft Брэда Смита (Brad Smith), эра ИИ может усугубить отставание Африки. Так, в Кении стартапы вроде Qhala разрабатывают ИИ-модели на африканских языках, но без местных ЦОД они вынуждены арендовать мощности на зарубежных серверах. Для сравнения: один только Институт Кемпнера (Kempner Institute) Гарвардского университета обладает большей вычислительной мощностью, чем все африканские ИИ-объекты вместе взятые.

 Источник изображения: University of Oxford

Источник изображения: University of Oxford

Подобное неравенство ведёт к печальным последствиям для слабых в технологическом отношении стран. Так, в Аргентине учёные жалуются на регулярный отъезд лучших студентов в США и Евросоюз для получения доступа к вычислительным мощностям. Проблема не просто техническая, поскольку без доступа к ИИ ЦОД страны лишаются инноваций, инвестиций и талантов. Например, некоторые страны открещиваются от сотрудничества с Китаем, чтобы не попасть под давление США.

Впрочем, действительно и обратное — в Африке политики ведут переговоры с Huawei о переделке существующих ЦОД для размещения китайских ускорителей в попытке избавиться от зависимости от американской NVIDIA. Как отмечают исследователи, в недалёком будущем производители вычислительной техники смогут получить влияние, сопоставимое с тем, какое имеют поставщики нефти.

 Источник изображения: University of Oxford

Источник изображения: University of Oxford

Для того, чтобы преодолеть цифровое неравенство, Индия субсидирует создание собственной суверенной ИИ-инфраструктуры, Бразилия намерена выделить на аналогичные задачи $4 млрд, а Евросоюз готовится инвестировать €200 млрд. В Африке местный бизнес продвигает проект строительства пяти ЦОД стоимостью $500 млн, хотя даже это удовлетворит лишь малую часть запросов.

Если раньше цифровое неравенство выражалось в неравномерном доступе к телефонным линиям или интернету, то теперь речь идёт о том, кто контролирует ИИ-инфраструктуры или распределение поставок её компонентов. Разрыв не только технологический, но и экономический и даже политический.

Постоянный URL: http://servernews.kz/1124858
23.06.2025 [14:46], Владимир Мироненко

Broadcom представила VMware Cloud Foundation 9 — основу основ для современного частного облака

Broadcom объявила о выходе платформы VMware Cloud Foundation (VCF) 9.0, которая предоставляет клиентам согласованную операционную модель для частного облака, охватывающую ЦОД, периферию и управляемую облачную инфраструктуру. VCF 9.0 сочетает в себе гибкость и масштабируемость публичных облаков с безопасностью, производительностью, архитектурным контролем и низкой совокупной стоимостью владения (TCO) локальных сред.

VCF 9.0 является единой унифицированной платформой с поддержкой традиционных, современных и ИИ-приложений, говорит компания. Согласованные операции, управление и контроль в среде частного облака, а также возможность самообслуживания позволяет разработчикам сосредоточиться на своих приложениях, а не на инфраструктуре. Именно для этого при создании VCF 9.0 была выбрана совершенно новая архитектура.

VCF 9.0 получила унифицированный интерфейс для администраторов облака, обеспечивающий целостное представление о его работе. Новое приложение Quick Start значительно сокращает время и сложность настройки. Встроенные политики управления и предварительно настроенные шаблоны помогают поддерживать соответствие требованиям всем развёртываниям, сокращая ручные задачи и гарантируя повторяемость инфраструктуры. Разработчики получают доступ к автоматизированным и эластичным самообслуживаемым IaaS.

 Источник изображений: Broadcom

Источник изображений: Broadcom

Встроенная службы vSphere Kubernetes Service (VKS) позволяет одинаково работать как с виртуальными машинами (ВМ), так и с контейнерами. Унифицированный подход позволяет клиентам создавать, развёртывать и запускать контейнеризированные и виртуализированные рабочие нагрузки вместе, снижая потребность в сложных стеках DevOps и интеграциях.

VCF 9.0 предлагает явные преимущества в плане прогнозируемости и прозрачности затрат по сравнению с публичным облаком, позволяя организациям получить полное представление о совокупной стоимости владения и обеспечивая чёткую видимость рентабельности инвестиций в инфраструктуру, говорит Broadcom.

Ключевой особенностью VCF 9.0 является и новая панель управления SecOps, обеспечивающая консолидированное представление безопасности платформы и управления данными, включая интегрированные политики соответствия и нормативные ограничения для согласованного управления. VMware vDefend обеспечивает встроенное обнаружение и реагирование на угрозы, микросегментацию на уровне зон и приложений, сокращение поверхности атак и принудительное применение принципа нулевого доверия в VCF. vDefend расширяет возможности как администраторов инфраструктуры, так и владельцев VPC, оптимизирует миграцию и обеспечивает последовательное предотвращение угроз в многоэкземплярных развёртываниях VCF.

Обновления коснулись и подсистем хранения и сетей. Расширенное многоуровневое хранение для NVMe позволяет обеспечить снижение до 38 % совокупной стоимости владения, а VMware vSAN ESA с Global Dedupe позволяет на 34 % снизить совокупную стоимость владения хранилищем. Новая защита данных vSAN-to-vSAN с «глубокими» снапшотами обеспечивает более эффективное восстановление после сбоев или атак программ-вымогателей. VCF обеспечивает практически нулевую потерю производительности по сравнению с bare metal, поддерживая при этом vMotion без простоев для рабочих ИИ-нагрузок.

VMware Live Recovery обеспечивает унифицированное управление кибер- и аварийным восстановлением во всех развертываниях VCF с повышенным суверенитетом данных за счёт локальных изолированных сред восстановления. Поддерживает до 200 неизменяемых снапшотов на ВМ и обеспечивает более эффективное масштабирование за счёт возможности расширения хранилища независимо от вычислений с помощью кластеров хранения vSAN. Наконец, в VMware NSX обеспечен трёхкратный рост производительности коммутации

VMware Private AI Foundation с NVIDIA повышает кибербезопасность, позволяя развернуть облаки с поддержкой изоляции (air gap) и GPU-as-a-Service. В службе также появилась видимость профилей vGPU и новые инструменты мониторинга (v)GPU. А Model Runtime упрощает использование и масштабирование ИИ-моделей, в то время как Agent Builder Service обеспечивает более эффективное создание ИИ-агентов.

VMware Data Services Manager (DSM) предлагает поддержку PostgreSQL и MySQL с Microsoft SQL Server в Tech Preview. Интеграция с VCF Automation позволяет ИТ-отделам предоставлять DBaaS, а дополнительные усовершенствования повышают эффективность для управления большими парками баз данных.

Еще одним ключевым обновлением является интеграция балансировщика нагрузки VMware Avi с VMware Cloud Foundation (VCF) 9.0. Он обеспечивает единую облачную операционную модель для балансировки по всем рабочим нагрузкам, предлагает plug-and-play балансировку для ВМ и Kubernetes, а также единый API для администраторов и разработчиков инфраструктуры.

Постоянный URL: http://servernews.kz/1124791
23.06.2025 [13:48], Руслан Авдеев

xAI воспользуется облаком Oracle для обучения и инференса Grok

Oracle частично раскрыла список компаний, использующих облачную инфраструктуру Oracle Cloud Infrastructure (OCI) для обучения ИИ-моделей и инференса. В их числе, несмотря на наличие собственных мощностей, оказался и стартап Илона Маска (Elon Musk) xAI, сообщает Datacenter Dynamics.

xAI намерена использовать ИИ-инфраструктуру OCI для обучения моделей нового поколения, стоящих за чат-ботом Grok. Кроме того, OCI будет применяться и для инференса в интересах xAI. Также модели будут предлагаться через ИИ-сервис OCI, предлагающий доступ к моделям генеративного ИИ. По словам представителей xAI, Grok 3 знаменует собой прорыв в возможностях ИИ, а платформа Oracle ускорит его внедрение в корпоративном секторе.

У xAI есть собственный ИИ-суперкомпьютер Colossus, который будет расширяться. Компания также намерена построить ещё один ЦОД. Правда, xAI столкнулась с судебным иском, связанным с увеличением мощности импровизированной электростанции из газовых генераторов.

 Источник изображения: xAI

Источник изображения: xAI

Помимо xAI клиентами Oracle является множество других компаний. Как сообщил облачный оператор, в их число входят Fireworks AI, Hedra, Numenta, Soniox и даже Meta, у которой тоже есть собственные вычислительные мощности. Представители OCI подчёркивают, что площадка является предпочтительным местом для обучения и инференса в любых масштабах. ИИ-инфраструктура OCI обеспечивает доступ к сверхскоростной сети, «оптимизированному» хранилищу и передовым ускорителям, на которые клиенты полагаются для очередных инноваций. Кроме того, Oracle является участником проекта Stargate.

Постоянный URL: http://servernews.kz/1124813

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus