Материалы по тегу: ии

23.05.2025 [13:46], Руслан Авдеев

ИИ-парковка: Tonomia интегрировала серверы в парковочные навесы с солнечными батареями и аккумуляторами

Компания Tonomia предлагает размещение ИИ-ускорителей на… автопарковках — оборудование будет снабжаться энергией благодаря навесным солнечным элементам. Основанный в 2023 году бельгийский стартап сотрудничает с британским поставщиком оборудования Panchaea над созданием и продвижением комплекса eCloud, сообщает Datacenter Dynamics.

Солнечные панели, используемые в качестве своеобразных «навесов» на парковках, нередко используются для подпитки АКБ электромобилей. Tonomia предложила использовать получаемую таким образом энергию и для питания ИИ-ускорителей своей облачной платформы. В компании полагают, что повсеместная установка таких «солнечных навесов» навесов в Европе и США позволит увеличить выработку энергии и снизить нагрузки на электросети, а интеграция вычислительного оборудования позволит получить дополнительный доход.

Компания предложила объединить ИИ-серверы и действующие солнечные модули системы eParking с литий-ионными или натрий-ионными аккумуляторами. В Tonomia утверждают, что навесы способны генерировать до 600 Вт в Европе или 750 Вт в США (из-за большей площади парковок). Как утверждают в Panchaea, только в Европе есть более 350 млн наземных парковочных мест, причём большинство из них пустуют 80 % времени. Tonomia готова превратит автопарковки в «активы двойного назначения».

 Источник изображения: Tonomia

Источник изображения: Tonomia

Tonomia готова предложить ИИ-серверы Supermicro, MITAC или Panchaea. Конфигурации кластеров подбираются под особенности индивидуальных бизнес-моделей. Предполагается, что каждое парковочное место потенциально позволяет генерировать до 20 кВт∙ч ежедневно, т.е. около £8 ($10,74) в денежном эквиваленте, если исходить из стоимости инференса £0,40 ($0,53) за кВт·ч. Дополнительный доход может принести и зарядка электромобилей, передача энергии в электросеть и отдача избыточного тепла на обогрев близлежащих зданий.

 Источник изображения: Tonomia

Источник изображения: Tonomia

Tonomia разработала eCloud на основе оригинального продукта eParking после того, как к ней обратились игроки ИИ-сектора, заинтересованные в локальной генерации энергии. По словам компании, городам необходима подобная многофункциональная инфраструктура, а предприятиям нужны мощности для периферийных вычислений в непосредственной близости от потребителей. Кроме того, такая экоустойчивая система должна понравиться и регуляторам.

Солнечная энергия активно используется в разных странах. Впрочем, как показывает европейский опыт, слишком много «зелёной» энергии — не всегда хорошо: Нидерланды уже столкнулись с определёнными проблемами.

Постоянный URL: http://servernews.kz/1123325
23.05.2025 [13:33], Руслан Авдеев

Крупнейший ИИ ЦОД Stargate будет не в США: OpenAI и G42 построят 5-ГВт кампус в Абу-Даби

OpenAI и G42, поддерживаемая суверенным фондом благосостояния ОАЭ, построят в Объединённых Арабских Эмиратах (ОАЭ) 5-ГВт кампус ИИ ЦОД площадью почти 26 км2. В рамках сделки последняя планирует взаимные инвестиции «доллар за доллар» в ИИ-инфраструктуру США. Речь идёт о крупнейшем расширении проекта Stargate по созданию ИИ-инфраструктуры за пределы США, сообщает Bloomberg — проект значительно крупнее, чем 1,2-ГВт кампус Stargate в Абилине (Техас, США).

Партнёрами в новом проекте являются SoftBank и Oracle, а также NVIDIA, которая поставит новейшие ускорители GB300, и Cisco, которая будет отвечать за сетевую инфраструктуру. Кампус ЦОД в ОАЭ значительно больше, чем не только любая площадка OpenAI, но и её ближайших конкурентов. Это позволит расширить сферу применения разработанных в США ИИ-решений за рубежом. Впрочем, G42 ранее была исторически связана с Китаем, поэтому существует риск утечки технологий с подрывом американской технологической мощи и национальной безопасности.

Как заявил глава OpenAI Сэми Альтман (Sam Altman), создавая первые в мире кластеры Stargate в ОАЭ, компания претворяет смелые проекты в жизнь, помогая создавать новые технологии в самых разных сферах. В G42 назвали проект «значительным шагом в партнёрстве ОАЭ и США в области ИИ». Пока неизвестно, откуда кампус получит 5 ГВт, но проект будут реализовать в несколько этапов. Сначала будет построен кластер на 1 ГВт, первые 200 МВт введут в эксплуатацию в 2026 году. Всего OpenAI сможет использовать 1 ГВт из всех мощностей объекта в Абу-Даби, так что арендовать ЦОД смогут и другие компании.

Примечательно, что в рамках партнёрства ОАЭ оплатит подписку ChatGPT Plus всем своим жителям. Также ИИ-инструменты будут интегрированы в государственные сервисы и сферы, включая энергетику и здравоохранение. Ранее известия о возможном строительстве ЦОД в ОАЭ обсуждали на уровне слухов, но информация об экспансии Stargate за пределы США ходит довольно давно.

 Источник изображения: Malik Shibly/unsplash.com

Источник изображения: Malik Shibly/unsplash.com

Тем временем в США многие чиновники обеспокоены стратегическими последствиями вывода американских ИИ-технологий за рубеж. Не исключается угроза национальной безопасности при использовании передовых ускорителей странами, имеющими давние и глубокие связи с Китаем. Та же G42 почти всё время своего существования сотрудничала с Huawei и пообещала разорвать связи с КНР только для обеспечения партнёрства с Microsoft на сумму $1,5 млрд. Сделка подкреплялась межправительственным соглашением с конкретными положениями о национальной безопасности, закрывающими доступ Пекину к американским технологиям. Впрочем, некоторые американские чиновники до сих пор сомневаются, что G42 выполнит свою часть сделки.

На вопрос о том, включает ли договор с OpenAI соглашение об обеспечении национальной безопасности, аналогичное соглашению с Microsoft, прямого ответа не последовало. Вместо этого источники подчёркивают, что все поставки передовых чипов в ОАЭ требуют экспортной лицензии в США. Такое требование действует с 2023 года для предотвращения утечки чипов в Китай. Хотя в последнее время экспорт либерализовали, определённые ограничения, особенно в отношении Китая, по-прежнему сохраняются.

Дополнительно Вашингтон и Абу-Даби обсуждают соглашение, включающее строгий контроль за ИИ-оборудованием, во избежание его передачи в Китай. Также обсуждается ограничение обучения китайских моделей в ЦОД ОАЭ — не так давно появилась информация, что Поднебесная активно использует зарубежные облачные дата-центры для своих ИИ-проектов.

Параллельно OpenAI ищет новые площадки в Азиатско-Тихоокеанском регионе, передаёт Bloomberg. Один из директоров компании намерен посетить, в частности, Австралию, Южную Корею, Японию, Индию и Сингапур, чтобы обсудить с представителями власти и бизнеса возможности развития ИИ-инфраструктуры и использования продуктов OpenAI. В Японии SoftBank Group и OpenAI уже создали совместное предприятие SB OpenAI для продвижения ИИ-сервисов в корпоративном секторе, а SoftBank планирует развернуть в стране новый ИИ ЦОД. Всего, как отмечается, интерес к размещению инфраструктуры OpenAI выразили более 30 стран.

Постоянный URL: http://servernews.kz/1123330
23.05.2025 [08:26], Руслан Авдеев

Google вслед за Microsoft заявила о готовности поддержать клиентов из Евросоюза и представила новые решения для защиты цифрового суверенитета

В рамках стратегии создания суверенного облака для Евросоюза компания Google анонсировала новые инструменты защиты цифрового суверенитета. Меры направлены на снижение алармистских настроений европейских регуляторов, связанных с возможной зависимостью блока от американских IT-гигантов, сообщает Datacenter Dynamics.

Компания намерена более активно сотрудничать с региональными партнёрами, в частности — в Германии и Франции. Это делается для того, чтобы обеспечить клиентам гарантии хранения и обработки данных исключительно в пределах «домашних» регионов. Поводом стала обеспокоенность европейских властных структур возможной зависимостью от американских облачных платформ Google Cloud, AWS, Microsoft Azure и др. Такая зависимость потенциально может использоваться администрацией США для политического и экономического давления в рамках продолжающихся торговых переговоров.

Европейские облачные компании ссылаются на недавние действия Белого дома, связанные с кризисом НАТО, новыми пошлинами на европейскую продукцию и даже ситуация вокруг Гренландии. Это сильные доводы для перехода в суверенные облака. В Google же подчёркивают, что раньше цифровой суверенитет был нишевым требованием, связанным преимущественно со строго регулируемыми отраслями, но теперь о нём начали задумываться буквально все.

 Источник изображения: Bulat Akhtiamov/unsplash.com

Источник изображения: Bulat Akhtiamov/unsplash.com

В пакет новых предложений для суверенных облаков входит функция Google Cloud Data Boundary, позволяющая пользователям формировать границы допустимого хранения данных с указанием конкретной страны. Также Google предлагает новую функцию User Data Shield, в рамках которой компания Mandiant может осуществить независимую валидацию безопасности облачных приложений, действующих в рамках заданных границ.

Google Cloud Dedicated предлагает платформу Trust Cloud by S3NS, где пользователи получают доступ к передовым облачным сервисам функциями Google Cloud, в том числе к ускорителям, но управляется платформа французской S3NS (совместный проект Thales и Google с 2021 года) в соответствии со стандартами SecNumCloud. Параллельно с Thales было заключено аналогичное соглашение и с немецкой T-Systems. Суверенное облако в Германии существует в формате Supervised Cloud. Физическое управление отдано T-Systems, облако полностью изолировано от прочей экосистемы Google Cloud.

Заявление Google прозвучало всего через несколько дней после анонса Microsoft, сообщившей об усилении своего присутствия в Европе и обещавшей увеличить мощности ЦОД в регионе на 40 % в ближайшие два года. В Microsoft отмечали, что учитывают реалии и понимают, что европейские власти будут рассматривать дополнительные варианты, в том числе финансирование «домашних» решений. В компании объявили о готовности сотрудничать, благо компания уже имеет опыт создания суверенных облаков в Евросоюзе. В крайнем случае Microsoft даже готова судиться с правительством США.

Стоит отметить, что Google и Microsoft не первый год перетягивают одеяло на европейском рынке. Не так давно Microsoft достигла соглашения с ассоциацией облачных операторов CISPE, которое, впрочем, не включает Google. Однако CISPE недавно предупредила, что Microsoft пока «отклонилась от курса» в вопросе внесения изменений условий лицензирования своего ПО в Европе и всё ещё не создала продукта, удовлетворяющего требованиям европейских провайдеров.

Постоянный URL: http://servernews.kz/1123282
22.05.2025 [16:36], Руслан Авдеев

Stargate: ЦОД OpenAI в Техасе вместит до 400 тыс. ускорителей Blackwell

OpenAI выделила более $11,6 млрд дополнительных средств на строительство объекта OpenAI в техасском Абилине (Abilene), сообщает Inside HPC. Первый кампус Stargate будет включать восемь объектов вместо в двух в первоначальном варианте проекта. Каждое из восьми зданий получит до 50 тыс. ускорителей в составе платформ NVIDIA Blackwell GB200 NVL72. JPMorgan Chase инвестирует в проект более $7 млрд.

Строительством совместно занимаются Crusoe Energy, Blue Owl Capital и Primary Digital Infrastructure. У компаний уже есть $11,6 млрд заёмных средств и акционерного капитала. Реализация первого этапа проекта началась в июне 2024 года, первые два 200-МВт объекта должны получить энергию в I половине 2025 года. Строительство в рамках второго этапа, которое началось в марте этого года, предусматривает создание ещё шести объектов и подведение 1 ГВт. Первые объекты второго этапа получит энергию в середине 2026-го, общая мощность кампуса в итоге составит 1,2 ГВт.

Дата-центр, который по словам Сэма Альтмана (Sam Altman) будет крупнейшей в мире площадкой для обучения ИИ-моделей, должен заработать в следующем году, общие инвестиции в проект составят $15 млрд. Stargate поможет OpenAI снизить зависимость от Microsoft — последняя вложила порядка $13 млрд в компанию с 2019 года. Сама NVIDIA, по слухам, вложила в OpenAI $100 млн в прошлом году.

 Источник изображения: Crusoe Energy

Источник изображения: Crusoe Energy

Пока что в OpenAI разочарованы неспособностью Microsoft выделить достаточно ИИ-мощностей. В результате стартап заключил соглашение с Oracle об использовании площадки в Абилине после получения одобрения Редмонда. По имеющимся данным Oracle арендовала ЦОД на 15 лет. Сам кампус является частью Lancium Clean Campus принадлежащего Lancium. В долгосрочной перспективе OpenAI рассчитывает построить собственную сеть дата-центров, включая те, что предназначены для проекта Stargate стоимостью $100–$500 млрд.

Постоянный URL: http://servernews.kz/1123279
22.05.2025 [16:30], Руслан Авдеев

800 В прямо к ускорителям: Infineon и NVIDIA разрабатывают архитектуру HVDC-питания для ИИ ЦОД

Infineon Technologies объединит усилия с NVIDIA для разработки централизованной архитектуры высоковольтного питания постоянным током (HVDC) на 800 В. Она рассчитана на дата-центры, обслуживающие ИИ-системы. Речь идёт о первом в отрасли решении по переходу от децентрализованного к централизованному питанию серверных стоек, сообщает Converge. Впрочем, пока Infineon не будет отказываться от традиционных и переходных архитектур питания.

По данным пресс-службы Infineon, новая архитектура предусматривает преобразование энергии непосредственно на уровне ускорителя, в пределах серверной платы — предполагается, что это позволит поддерживать будущие системы с энергопотреблением более 1 МВт на стойку. Централизованный подход направлен на сокращение этапов преобразования энергии, оптимизацию размещения оборудования в стойках для экономии пространства, а также повышение надёжности и масштабируемости ИИ-инфраструктуры.

Современные ИИ ЦОД используют не вполне эффективные методы распределения питания. В настоящее время система электропитания в дата-центрах децентрализована, а энергоснабжение ИИ-чипов обеспечивается большим количеством блоков и модулей питания. Проблема охлаждения модулей питания в серверных стойках из-за их компактного размещения весьма распространена. Решением может быть вынос преобразователей питания за пределы стоек, что снижает тепловую нагрузку, повышая общую отказоустойчивость системы. Пока речь идёт о выносе модулей питания в отдельную стойку, но в будущем возможно использование единых 800-В шин для ЦОД целиком.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Использование высокоплотного централизованного распределения 800 В задаст новые стандарты энергоэффективности и масштабируемости, позволив оптимально использовать ограниченное пространство в серверных стойках. Изменение технологий происходит на фоне роста нагрузок в ИИ ЦОД, некоторые операторы уже эксплуатируют 100 тыс. ускорителей одновременно. Для поддержки новых технологий Infineon использует свой опыт в сфере силовых полупроводников на базе кремния, карбида кремния, нитрида галлия и др.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Другими словами, ключевыми особенностями проекта являются:

  • совместная разработка централизованной архитектуры HVDC 800 В;
  • прямое преобразование тока на уровне ускорителей в серверных платах;
  • поддержка плотности более 1 МВт на стойку;
  • использование силовых полупроводников Infineon;
  • сокращение количества этапов преобразования энергии.

По словам Infineon, сочетание её знаний в сфере энергообеспечения и позиций NVIDIA в роли мирового лидера ИИ-индустрии прокладывает дорогу к созданию нового стандарта архитектуры питания дата-центров, позволяющего создавать быструю, эффективную и масштабируемую инфраструктуру.

 Традиционные системы. Источник изображения: NVIDIA

Традиционные системы. Источник изображения: NVIDIA

Высоковольтные системы постоянного тока уже применялись в прошлом, но их внедрение, как сообщает NVIDIA, требует обеспечения безопасности эксплуатации, стандартизации и обучения персонала. NVIDIA и партнёры исследуют экономические и технологические аспекты перехода на 800 В, сравнивая традиционные трансформаторные решения с твердотельными (SST) модулями для оптимизации затрат и надёжности.

 Системы нового типа. Источник изображения: NVIDIA

Системы нового типа. Источник изображения: NVIDIA

В самой NVIDIA утверждают, что новая архитектура обеспечивает масштабируемость от 100 кВт до 1 МВт, а энергоэффективность повысится на уровень до 5 % в сравнении с современными системами на 54/12 В. Попутно снизится использование меди, повысится надёжность и останется задел на будущее, поскольку 1 МВт на стойку — это не предел.

Microsoft и Meta пока что предлагают перейти на использование 400 В DC. Речь о системе Mt. Diablo, спецификации которой предоставляются участникам проекта Open Compute Project (OCP). Идея заключается в разделении стойки на независимые шкафы для компонентов подсистемы питания и вычислительного оборудования. Речь идёт о дезагрегированной архитектуре, позволяющей гибко регулировать мощность в соответствии с меняющимися требованиями. А Veir, к примеру, предлагает дата-центрам перейти на сверхпроводящие силовые кабели.

Постоянный URL: http://servernews.kz/1123263
22.05.2025 [12:43], Сергей Карасёв

ASRock Rack показала серверы NVIDIA HGX B300 и систему XGMRACK GB300 NVL72

Компания ASRock Rack в рамках выставки Computex 2025 представила серверы нового поколения, оснащённые ИИ-ускорителями NVIDIA на архитектуре Blackwell. Кроме того, демонстрируются другие индустриальные и корпоративные продукты, включая материнские платы и системы с процессорами AMD и Intel.

В число новинок вошёл сервер ASRock Rack 8U16X-GNR2 типоразмера 8U с воздушным охлаждением. Он выполнен на платформе NVIDIA HGX B300. По заявления разработчика, достигается в семь раз более высокая ИИ-производительность по сравнению с сопоставимыми системами, оборудованными ускорителями NVIDIA на архитектуре Hopper. Суммарный объём памяти HBM3e составляет около 2,3 Тбайт. Задействованы сетевые адаптеры NVIDIA ConnectX-8 SuperNIC.

Кроме того, ASRock Rack готовит к выпуску сервер 4U16X-GNR2 на базе NVIDIA HGX B300 с жидкостным охлаждением. Обе модели ориентированы на ресурсоёмкие рабочие ИИ-нагрузки, такие как агентные системы, рассуждающие модели и генеративные сервисы.

На стенде ASRock Rack представлено стоечная система XGMRACK на основе NVIDIA GB300 NVL72. Она объединяет 36 чипов NVIDIA Grace и 72 ускорителя NVIDIA Blackwell Ultra. Вычислительные и коммутационные узлы используют на 100 % жидкостное охлаждение. Общий объём памяти HBM3e превышает 20 Тбайт. Применяются решения NVIDIA Quantum-X800 InfiniBand и Spectrum-X Ethernet.

ASRock Rack также представила серверы на модульной архитектуре NVIDIA MGX для масштабируемых ИИ-приложений и периферийных вычислений. В число таких машин входит модель 4UXGM-GNR2 типоразмера 4U с поддержкой двух процессоров Intel Xeon 6700P, 6500P (Granite Rapids) или Xeon 6700E (Sierra Forest).

Доступны 32 слота для модулей оперативной памяти DDR5-6400, 16 посадочных мест для накопителей E1.S с интерфейсом PCIe 5.0 x4, два коннектора М.2 22110/2280 для SSD (PCIe 5.0 x4 и PCIe5.0 x2), восемь слотов PCIe 5.0 x16 FHFL, пять слотов PCIe 5.0 x16 FHHL и один слот PCIe 5.0 x16 HHHL. Установлены контроллер ASPEED AST2600 и четыре блока питания мощностью 1200 Вт с сертификатом 80 PLUS Titanium. 

Постоянный URL: http://servernews.kz/1123260
22.05.2025 [12:36], Руслан Авдеев

На пути к гигаватту: Nebius увеличит капитальные затраты в 2025 году до $2 млрд

Провайдер облачных ИИ-сервисов Nebius (ранее Yandex N.V.) увеличил прогнозируемые капитальные затраты в 2025 году на треть. В отчёте за I квартал сообщается, что теперь капзатраты за год составят порядка $2 млрд — ранее речь шла об $1,5 млрд, сообщает Datacenter Dynamics.

По словам компании, увеличение связано с переносом затрат с IV квартала предыдущего периода на I квартал нового. Кроме того, виновата и «оппортунистическая» стратегия компании — речь идёт о недавно анонсированном суперкомпьютере в Израиле. Изначально израильского проекта за $140 млн в планах не было, но раз появилась такая возможность, то ей было решено воспользоваться, к тому же часть расходов оплатят израильские власти. Базового уровня мощности в 100 МВт компания рассчитывает добиться уже в 2025 году, но её руководство заявляет, что на деле амбиций гораздо больше — со временем планируется выйти на уровень в 1 ГВт.

Сейчас компания располагает возможностью финансировать рост расходов за счёт неосновных активов, долей в сторонних монетизируемых проектах. Так, Nebius косвенно подтвердила, что сейчас идёт раунд сбора средств для Clickhouse, который может довести капитализацию этой компании до $6 млрд, что уже положительно сказалось на оценках самой Nebius. Также Nebius имеет значительные доли в Toloka и Avride. Недавно Toloka получила $72 млн инвестиций от Bezos Expeditions, которой владеет основатель Amazon Джефф Безос (Jeff Bezos).

 Источник изображения: Alexander Grey/unsplash.com

Источник изображения: Alexander Grey/unsplash.com

Также компания намерена получить доступ и к более традиционным источникам средств. В декабре 2024 года Nebius уже привлекала $700 млн в виде акционерного финансирования от Accel, NVIDIA и структур, подконтрольных Orbis Investments. Кроме того, компания завершила квартал с $1,4 млрд на балансе, что подчеркивает её финансовую устойчивость и перспективы для дальнейших инвестиций или роста.

Несмотря на прогнозируемый рост капитальных затрат, Nebius отчиталась о квартальной выручке в размере $55,3 млн, на 385 % больше год к году в сравнении с $11,4 млн в 2024 году. Основным источником средств стала ИИ-инфраструктура компании. Скорректированный убыток по EBITDA за квартал составил $62,6 млн, на 12 % меньше год к году, чистый убыток от продолжающейся деятельности — $113,6 млн. Ожидается, что показатель EBITDA станет положительным в 2025 году. Прогноз головой выручки составляет $500–$700 млн, при этом годовой темп выручки оценивается компанией в $0,75—$1 млрд к концу 2025 года. В любом случае предполагается последовательный рост компании.

 Источник изображения: Alexander Grey/unsplash.com

Источник изображения: Alexander Grey/unsplash.com

Предложение ускорителей NVIDIA Blackwell клиентам даст уверенность в том, что показатели компании будут соответствовать собственным прогнозам. Компания уже предлагает доступ к GB200, а в III квартале начнёт развёртывать Blackwell Ultra (GB300). По словам генерального директора компании Аркадия Воложа (Arkady Volozh), текущая клиентская база компании — новые ИИ-бизнесы, появившиеся в последние пару лет. Большинство из них базируется в США, поэтому Nebius сосредоточена на том, чтобы нарастить мощности в этой стране.

По словам бизнесмена, пока не привлечены передовые ИИ-лаборатории и действительно крупные клиенты, но в Nebius усердно работают над этим — таким клиентам понадобится больше ЦОД. Nebius также присоединилась к платформе NVIDIA DGX Cloud Lepton, которая упрощает облачный доступ к ускорителям NVIDIA. К Lepton также присоединились CoreWeave, Crusoe, Firmus, Foxconn, GMI Cloud, Lambda, Nscale, SoftBank и Yotta Data Services.

Также известно, что компания назначила нового финансового директора — Марию дель Дадо Алонсо Санчес (Maria del Dado Alonso Sanchez), которая уже 1 июня должна сменить на этом посту Рона Джейкобса (Ron Jacobs). Новая CFO имеет за плечами более 25 лет опыта работы на руководящих должностях, в том числе в Amazon, Booking.com, Naspers/OLX и BBG.

Постоянный URL: http://servernews.kz/1123268
21.05.2025 [17:23], Руслан Авдеев

Глава NVIDIA назвал запреты США на экспорт передовых ИИ-чипов в Китай «ошибочными и абсолютно неправильными»

Глава NVIDIA Дженсен Хуанг (Jensen Huang) назвал запреты США на экспорт производительных ИИ-ускорителей в Китай «ошибкой» и «абсолютно неправильной политикой», сообщает The Register. Выступая на выставке Computex на Тайване, Хуанг пожаловался на решение новой администрации запретить продажи в КНР ускорителей NVIDIA H20 — ослабленной версии чипов H800, которые сами по себе являются ухудшенным вариантом H100.

По словам бизнесмена, это решение негативно скажется на выручке и прибыли NVIDIA, что ухудшит возможности платить в США налоги и нанимать сотрудников. Также предполагается, что такая политика навредит человечеству в целом, поскольку половина учёных в области ИИ находятся в Китае, и они же показывают одни из лучших в мире результатов. Хуанг хотел бы, чтобы те могли пользоваться оборудованием NVIDIA, чтобы результаты их работы мог использовать весь мир. Хуанг подчеркнул, что знаменитые продукты китайской DeepSeek, позволяющие выжать максимум из оборудования, создавались на ускорителях NVIDIA. В своё время появление R1 вызвало панику на бирже и обвал акций самой NVIDIA.

При этом китайские бизнесы создают собственные ИИ-ускорители, поэтому политика американских властей «ошибочна», она только ускорит инновации в Китае. NVIDIA, конечно, попытается создать ускорители, соответствующие новым требованиям экспортного контроля США, но пока в NVIDIA «не знают, как ослабить архитектуру Hopper ещё больше», поскольку она и без того максимально ухудшена.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Заодно Хуанга похвалил новые правила экспорта ускорителей в большинство других стран, которые стали более демократичными. Хуанг уверен, что изменение политики поможет NVIDIA вырасти, а американским технологиям — занять доминирующие позиции в мире. Он не преминул отметить, что правительствам стоит ускорить выдачу разрешений на проекты генерации энергии для ИИ ЦОД. Заодно Хуанг похвалил политику США по наращиванию местного производства, поскольку ИИ-бум обеспечит спрос и возможности для выпуска большего количества продуктов в США. Впрочем, бизнесмен уверен, что всё делать в стране всё равно не получится — системы NVIDIA полагаются на получение более 1 млн типов компонентов со всего мира.

Также в ходе выступления Хуанг не преминул прорекламировать технологию NVlink Fusion, позволяющую использовать интерконнекты NVIDIA NVLink с ускорителями разных производителей. Директор компании подчёркивает, что его технология значительно лучше «открытого» стандарта UALink. По словам Хуанга, пока пользователи ждут UALink, на что уйдёт не меньше года), NVLink Fusion наберёт популярность. Также бизнесмен опроверг слухи о планах NVIDIA построить новый исследовательский центр в Китае — новые офисные помещения нужны просто потому, что действующим сотрудникам не хватает места.

Постоянный URL: http://servernews.kz/1123222
21.05.2025 [12:57], Руслан Авдеев

ИИ-платформа Microsoft Discovery создала жидкость для СЖО за 200 часов вместо нескольких месяцев

Компания Microsoft запустила для корпоративных пользователей в тестовом режиме ИИ-платформу Microsoft Discovery, использующую ИИ-агентов и HPC для помощи учёным, которым не придётся самостоятельно писать код для своих исследований. Потенциал системы продемонстрировали на примере самой Microsoft — ИИ помог создать новейшую жидкость для погружного охлаждения всего за 200 часов вместо нескольких месяцев или даже лет, сообщает VentureBeat.

Microsoft Discovery использовали для поиска охлаждающей жидкости без «вечных» PFAS-химикатов, часто применяемых в иммерсионных СЖО. Регуляторы во всём мире всё чаще запрещают производство и использование этого класса вещества. ИИ Microsoft проверил 367 тыс. веществ-кандидатов, после чего химикат синтезировал один из партнёров компании. Однако сфера применения такого ИИ простирается далеко за пределы создания охлаждающих жидкостей — новые материалы и химикаты требуются в самых разных сферах, но на их поиск часто уходят годы.

Microsoft Discovery позволяет взаимодействовать с «невероятными возможностями» ИИ, используя естественный язык, что полностью меняет весь процесс исследований, говорит компания. Обычно учёным приходилось изучать программирование для того, чтобы создавать вычислительные инструменты. Такая демократизация науки сыграет на руку малым исследовательским группам, у которых нет ресурсов на изучение программирования или привлечения сторонних специалистов в этой сфере. Более того, со временем платформа научится работать и с квантовыми компьютерами, написание кода для которых — ещё более сложная задача.

 Источник изображения: National Cancer Institute/unsplash.com

Источник изображения: National Cancer Institute/unsplash.com

Работа выполняется с помощью специальных ИИ-агентов, специально обученных для выполнения отдельных научных задач — от написания литературного обзора до создания компьютерной симуляции. По словам Microsoft, ИИ-агенты — это чуть ли не целая команда учёных с докторскими степенями в различных науках. Платформа интегрирует друг с другом базовые модели, занимающиеся общим планированием, и модели, специализирующиеся на физике, химии или, например, биологии.

Также Microsoft Discovery позволяет комбинировать закрытые исследовательские данные и результаты уже опубликованных научных исследований по разным дисциплинам, сохраняя прозрачность моделей и контролируя процесс «рассуждений». Для работы с платформой используется интерфейс Copilot, который занимается оркестрацией агентов. Одновременно интерфейс служит и центральным хабом, в котором учёные управляют своей виртуальной ИИ-командой.

 Источник изображения: National Cancer Institute/unsplash.com

Источник изображения: National Cancer Institute/unsplash.com

В платформу встроены защитные механизмы — системе заданы «этические координаты». Также применяется модерация контента с проактивным подходом к выявлению злоупотреблений возможностями платформы — маркируются потенциально вредоносные алгоритмы и действия, поскольку все ИИ-инструменты фактически имеют «двойное назначение». С их помощью можно изобретать не только лекарства, но и опасные биологически опасные субстанции.

Для своей платформы Microsoft выстраивает экосистему с участием представителей самых разных отраслей, от фармацевтики (GSK) до индустрии красоты (Estée Lauder). NVIDIA интегрирует с Discover микросервисы ALCHEMI и BioNeMo NIM для биотехнологий и фармацевтики. В полупроводниковой сфере Microsoft планирует интеграцию решений Synopsys для ускорения разработки чипов. Адаптацией под конкретные отраслевые задачи, развёртыванием и масштабированием платформы займутся Accenture и Capgemini.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Успех Microsoft Discovery будет зависеть от того, насколько эффективно систему смогут интегрировать в текущие научные процессы — многие учёные скептически относятся к новым методикам, так что компании придётся показать всё, на что способен ИИ. По словам Microsoft, будущее науки именно за сочетанием умственных возможностей человека и масштабного ИИ. Microsoft уже провела предварительную демонстрацию Discovery для ограниченного круга структур. Цены на платформу пока не названы, но доступ к к ней будет организован посредством Azure.

Постоянный URL: http://servernews.kz/1123198
21.05.2025 [10:39], Владимир Мироненко

GPU-маркетплейс NVIDIA DGX Cloud Lepton упростит доступ к дефицитным ИИ-ускорителям

NVIDIA анонсировала GPU-маркетплейс NVIDIA DGX Cloud Lepton, которая позволит разработчикам со всего мира, создающим агентские и другие ИИ-приложения использовать NVIDIA Blackwell и другие модели ускорителей в глобальной сети партнёрских облаков (NCP): CoreWeave, Crusoe, Firmus, Foxconn, GMI Cloud, Lambda, Nebius, Nscale, Softbank и Yotta Data Services. Ожидается, что ведущие провайдеры облачных услуг и другие GPU-маркетплейсы также присоединятся к DGX Cloud Lepton.

Разработчики смогут использовать вычислительные мощности ускорителй в определённых регионах как для вычислений по требованию, так и на постоянной основе. «NVIDIA DGX Cloud Lepton свяжет нашу сеть глобальных поставщиков облачных GPU с разработчиками в сфере ИИ, — заявил основатель и генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang). — Вместе с нашими NCP мы строим ИИ-фабрику планетарного масштаба».

По замыслу NVIDIA, платформа DGX Cloud Lepton поможет решить критическую задачу обеспечения разработчиков надёжными, высокопроизводительными ресурсами ускорителей путём унификации доступа к облачным ИИ-сервисам и мощностям собственных ускорителей. Платформа интегрирована с программным стеком NVIDIA, включая микросервисы NIM и NeMo, Blueprints и Cloud Functions.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

В числе основных преимуществ новой платформы компания назвала:

  • Повышенную производительность и гибкость: маркетплейс предлагает единый опыт разработки, обучения и инференса. Разработчики смогут приобретать здесь мощности ускорителей напрямую у участвующих провайдеров облачных услуг или использовать собственные вычислительные кластеры, что обеспечивает им большую гибкость и контроль.
  • Беспроблемное развёртывание: платформа позволяет развёртывать ИИ-приложения в мультиоблачных и гибридных средах с минимальной эксплуатационной нагрузкой, используя интегрированные сервисы для инференса, тестирования и обучения.
  • Гибкость и суверенитет: платформа предоставляет разработчикам быстрый доступ к ресурсам ускорителей в определённых регионах, что позволяет соблюдать требования суверенитета данных и требования к низкой задержке для чувствительных рабочих нагрузок.
  • Предсказуемую производительность: маркетплейс обеспечивает производительность, надёжность и безопасность корпоративного уровня, гарантируя единообразный пользовательский опыт.

А для самих провайдеров, участвующих в DGX Cloud Lepton, предоставляется ПО для управления, которое обеспечивает диагностику состояния ускорителей в реальном времени и автоматизирует анализ первопричин возникших проблем, избавляя от ручной диагностики и сокращая время простоев.

NVIDIA также анонсировала инициативу Exemplar Clouds, предназначенную для стандартизации прозрачного сравнительного анализа облачной ИИ-инфраструктуры. Это предложение должно решить серьёзную проблему, с которой сталкиваются разработчики и предприятия, развёртывающие рабочие ИИ-нагрузки — прогнозирование эффективности, надёжности и ценовой эффективности облачной платформы. Exemplar Clouds использует NVIDIA DGX Cloud Benchmarking, комплексный набор инструментов и рекомендаций для оптимизации производительности облачных ИИ-нагрузок и количественной оценки связи между стоимостью и производительностью.

Постоянный URL: http://servernews.kz/1123191

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus