Лента новостей
29.08.2025 [15:05], Руслан Авдеев
Microsoft, OpenAI и NVIDIA предупредили, что ИИ теперь может физически навредить энергосетямГодами эксперты в области кибербезопасности уделяли внимание защите критической инфраструктуры в основном от цифровых атак с помощью самых разных систем, не позволявших создать угрозу электросетям. Однако новое исследование, проведённое специалистами из Microsoft, OpenAI и NVIDIA, показывает, что главной угрозой электросетям выступают отнюдь не хакеры, а ИИ. Исследование «Стабилизация энергоснабжения для обучающих ИИ ЦОД» (Power Stabilization for AI Training Datacenters) выявило интересную тенденцию, связанную с быстрым внедрением ИИ в больших масштабах. В процессе эксплуатации ускорителей есть два основных этапа: вычислительный, когда они активно выполняют сложные математические операции, потребляя много энергии, и коммуникационный, когда они обмениваются данными между собой. Во время перехода от первого этапа ко второму происходит резкий спад энергопотребления, а от второго к первому — его стремительный рост. В случае с гиперскейлерами скачки могут составлять десятки или сотни мегаватт, что негативно сказывается на состоянии электросетей в целом. Дело не просто в неэффективном использовании ресурсов — речь идёт об угрозе критически важной инфраструктуре. В докладе говорится, что колебания потребления могут совпасть с резонансными частотами ключевых компонентов энергосистемы, включая генераторы и оборудование ЛЭП, что потенциально приводит к дестабилизации сети, повреждению оборудования и масштабным авариям. Другими словами, активность ИИ представляет прямую физическую угрозу для аналоговой инфраструктуры электросетей. ![]() Источник изображения: American Public Power Association/unsplash.com Для решения этой проблемы предлагаются три основных подхода. Во-первых, во время простоя на ускорителях можно решать второстепенные (или вообще бессмысленные, как делала Meta✴) задачи, держа оборудование на «холостом ходу» без полной остановки вычислений. Метод простой, но не самый лучший — общая энергоэффективность не растёт, снижение производительности при выполнении основной задачи вполне возможно. Во-вторых, можно непосредственно на уровне ИИ-ускорителей задавать минимальный порог энергопотребления, что тоже не способствует энергоэффективности. Наконец, в-третьих, можно использовать аккумулирующие энергию системы: в моменты низкого потребления они заряжаются, а во время скачка нагрузки отдают накопленную в них энергию вместо того, чтобы резко увеличивать потребление от общей электросети. Подобные системы позволяют избежать скачков и сгладить рост и снижение потребляемой мощности. Так, Google уже давно размещает литий-ионных ячейки непосредственно в стойках. Для стоек GB300 NVL72 NVIDIA дополнила блоки питания буфером, который позволяет смягчить колебания потребления и снизить пиковую нагрузку на сеть до 30 %. Энергосети давно являются частью критической инфраструктуры, но новые угрозы для них теперь находятся на стыке цифрового и реального мира. Получив неавторизованный доступ к крупному ИИ-кластеру, злоумышленники могут намеренно изменить паттерн энергопотребления так, чтобы навредить материальной инфраструктуре. Другими словами, злоумышленники могут повредить электростанцию или энергосети, даже не приближаясь к ним. В докладе Microsoft, OpenAI и NVIDIA заинтересованные стороны прямо отмечают, что масштаб ИИ вырос до отметки, на которой цифровая активность ведёт к важным физическим последствиям. Специалистам по кибербезопасности придётся уделять время не только цифровой реальности, но и заняться защитой критически важной инфраструктуры и учитывать последствия разрабатываемых и внедряемых алгоритмов. Примером может служить инцидент, произошедший летом 2024 года в Вирджинии, когда миллисекундный сбой привёл к одномоментному отключению 60 дата-центров мощностью 1,5 ГВт на несколько часов.
29.08.2025 [09:20], Владимир Мироненко
Broadcom расширила инструментарий VCF 9.0, преобразовав её в «унифицированную платформу»Broadcom позиционирует VMware Cloud Foundation (VCF) 9.0 как единую унифицированную платформу, которую можно использовать как для ИИ, так и для других рабочих нагрузок, и с этой целью анонсировала ряд обновлений. Для дальнейшей поддержки ИИ и других ресурсоёмких нагрузок Broadcom объявила о доступности VMware Tanzu Data Intelligence — платформы-хранилища, которая обеспечит унифицированный доступ к разнообразным данным. VMware vSAN получила встроенную поддержку S3-интерфейсов объектного хранилища, что позволит создавать унифицированные политики хранения для блочного, файлового и объектного хранения и снизить сложность инфраструктуры хранения. Компания также интегрировала VCF 9.0 с GitOps, Argo CD и Istio для обеспечения безопасности доставки приложений, используя Git в качестве источника данных для Kubernetes. Теперь разработчики смогут хранить свою инфраструктуру и приложения в виде кода в Git и использовать Argo CD для автоматизации согласованных развёртываний. Кроме того, Istio Service Mesh обеспечивает сетевое взаимодействие с нулевым доверием, управление трафиком и возможность наблюдения для контейнеров. Наряду с VMware Private AI Services платформа VCF 9.0 получила совершенно новый Cyber Compliance Advanced Service — сервис, разработанный для строго регулируемых сред, который обеспечивает улучшенное соответствие кибертребованиям, отказоустойчивость и безопасность платформы для сред VCF. VMware vDefend Security получил новые автоматизированные элементы управления для ускорения внедрения защиты с нулевым доверием, а также расширенные инструменты обнаружения угроз на уровне сети (Network Detection and Response). Также была добавлена функция защиты от бесфайловых атак, использующих PowerShell, VBScript и Jscript. По словам Broadcom, она позволяет проверять и перехватывать вредоносные скрипты до их выполнения, закрывая важнейшую «слепую зону» в кибербезопасности. Avi Load Balancer получил новый инструмент оценки WAF и защиту трафика MCP для агентских рабочих нагрузок. По словам Пола Тернера (Paul Turner), вице-президента по продуктам VMware Cloud Foundation, новые инструменты предоставляют компаниям унифицированный подход к защите инфраструктуры, предотвращению угроз, обеспечению соответствия требованиям и восстановлению после кибератак. Прашант Шеной (Prashanth Shenoy), вице-президент по маркетингу продуктов подразделения VCF, заявил, что ориентация Broadcom на частное облако получила поддержку среди клиентов, особенно среди крупных предприятий и стратегических корпораций. По данным Broadcom, девять из десяти крупнейших компаний из списка Fortune 500 в настоящее время используют VCF. Продажа по всему миру более 100 млн лицензий VCF говорит о значительном доверии к платформе крупных организаций.
28.08.2025 [22:32], Владимир Мироненко
Broadcom интегрировала в VCF ИИ-сервисы и поддержку новейших ускорителей AMD и NVIDIA — всё это будет доступно бесплатноBroadcom объявила об интеграции ИИ-сервисов VMware Private AI в платформу VMware Cloud Foundation (VCF) без дополнительных затрат для клиентов. Компании смогут пользоваться ИИ-функциями в рамках подписки на VCF, начиная с I квартала 2026 года. По словам компании, это упростит и ускорит внедрение новых ИИ-сервисов заказчиков. Некоторые эксперты считают, что дальнейшая модернизации VMware и повышение привлекательности пакета VCF для компаний благодаря интеграции частных ИИ-сервисов могут стать важным шагом для сохранения клиентской базы VMware. Компании получат множество преимуществ: от расширенного планирования инфраструктуры и балансировки нагрузки, предоставляемых с помощью распределенного планировщика ресурсов (DRS), до схем автоматизации, позволяющих развёртывать сложные ИИ-сервисы за считанные минуты, используя оптимизированные драйверы устройств, ядра для конкретных ускорителей и многое другое, обещает Broadcom. VMware Private AI Services помогут компаниям развёртывать и управлять ИИ-приложениями в современной частной облачной инфраструктуре, сохраняя конфиденциальность и безопасность данных. ИИ-сервисы включают среду выполнения моделей, хранилище моделей, мониторинг ускорителей, службу индексации и поиска данных, векторную базу данных, шлюз API и конструктор ИИ-агентов. Целью проекта является создание более интегрированного, безопасного и удобного для разработчиков решения, которое будет выглядеть и работать как публичное облако с точки зрения получения услуг, безопасности и масштабируемости. Это означает большую автоматизацию, больше API и лучшую прозрачность производительности и затрат, отметил ресурс SiliconANGLE. Разработчикам будет помогать генеративный ИИ-помощник VCF Intelligent Assist. Он поможет диагностировать и решить проблемы инфраструктуры, используя базу знаний Broadcom. В дальнейшем будет добавлена функция автоматического исправления ошибок. Broadcom сообщила, что в ближайшее время VCF 9.0 получит поддержку протокола Model Context Protocol (MCP), позволяющего ИИ-агентам подключаться к внешним источникам данных и инструментам и использовать их для совместной работы с другими агентами. Также платформа будет поддерживать функцию Multi-accelerator Model Runtime, которая обеспечивает гибкое развёртывание ИИ-моделей на различном оборудовании, включая ускорители AMD и NVIDIA. Кроме того, клиенты получат многопользовательский доступ к моделям (Multi-tenant Models-as-a-service), что поможет снизить затраты за счёт безопасного доступа арендаторов или отдельных подразделений к общим ИИ-моделям. Broadcom добавила в платформу VCF поддержку оборудования и ПО NVIDIA, в том числе систем Blackwell, включая RTX Pro 6000, и адаптеров ConnectX-7. Также Broadcom заявила о сотрудничестве с AMD, что позволит организациям использовать VCF с ускорителями AMD Instinct серии MI350 и ПО ROCm. Заодно Broadcom объявила о расширенном сотрудничестве с Canonical, благодаря которому клиенты смогут использовать Ubuntu в своих частных облаках с полной корпоративной поддержкой, включая ускоренное управление патчами и повышенную кибербезопасность.
28.08.2025 [17:31], Руслан Авдеев
Foxconn инвестировала более $200 млн в производство в Мексике, вероятно — для выпуска ИИ-серверовТайваньская Foxconn (Hon Hai Technology Group) вложила $213 млн в дочернее предприятие, базирующееся в Мексике. Согласно документам, поданным Тайваньской фондовой бирже, 13 августа компания инвестировала $45 млн в мексиканскую FII AMC Mexico при посредничестве ещё одной дочерней структуры, Cloud Network Technology Singapore, сообщает Datacenter Dynamics. 25 августа, в ходе второго этапа инвестиций, Foxconn потратила ещё $168 млн. Средства, вероятно, направят на финансирование выпуска ИИ-серверов — ещё в октябре 2024 года производитель заявил о намерении построить завод в Гвадалахаре (Guadalajara), который будет выпускать серверы на базе Blackwell. По информации тайваньских СМИ, 18 августа руководство Foxconn сообщило Ассоциации производителей электротехники и электроники Тайваня (Taiwan Electrical and Electronic Manufacturers’ Association), что намерена построить технопарки в США или Мексике, чтобы избежать 20-% пошлин, которые США планирует ввести в отношении Тайваня. ![]() Источник изображения: Andrés Sanz/unsplash.com Foxconn уже работает в Мексике. В феврале 2025 года компания подписала меморандум о взаимопонимании с северо-западным штатом Сонора (Sonora) для разработки решений для «умного города» в сфере транспорта, общественной безопасности и портов. В отчёте Foxconn о финансах за II квартал 2025 года отражается, что впервые в истории компании её подразделение, отвечающее за облачные и сетевые продукты, зафиксировало более высокую выручку, чем подразделение по выпуску умной бытовой электроники. В июле 2025 года Foxconn объявилао партнерстве с производителем электродвигателей и дата-центров — Teco Electric and Machinery для создания модульных ЦОД. Кроме того, компания, напрмиер,будет выпускать ИИ-оборудование для проектаStargate на заводе в США, которыйона же продала SoftBank.
28.08.2025 [14:01], Руслан Авдеев
NVIDIA жалуется на многомиллиардные потери из-за торговой войны США и КитаяNVIDIA призвала Вашингтон скорее одобрить продажу ускорителей Blackwell в КНР. Призыв прозвучал в ходе финансового отчёта компании за II квартал 2025 года, сообщает The Register. Как говорят в компании, её продукты разрабатываются и продаются для коммерческого использования, и каждая продажа принесёт выгоду американской экономике. Если компании дадут возможность конкурировать по всему миру, её ИИ-стек станет повсеместным стандартом. По мнению главы NVIDIA Дженсена Хуанга (Jensen Huang), только в этом году Китай мог бы обеспечить компании рынок объёмом $50 млрд, если бы она могла удовлетворить спрос конкурентоспособными продуктами. отсутствии H20 китайские компании переходят на подержанные ускорители NVIDIA A100/H100. При этом весьма вероятно, что к слабым моделям покупатели возвращаться не захотят вовсе. Сейчас NVIDIA готовит для Китая более производительный ИИ-ускоритель на архитектуре Blackwell и ожидает разрешение Вашингтона на выдачу экспортных лицензий. Президент США уже давал понять, что он открыт для этой идеи, а Хуанг критиковал запрет на продажи, утверждая, что это только усилит конкурентоспособность Китая. В ![]() Источник изображения: NVIDIA Тем временем NVIDIA ожидает потери времени и денег из-за затормозившихся продаж ослабленного ускорителя H20 в Поднебесной. Кроме того, в компании отмечают, что власти объявили о 15-% «налоге» на продажи ускорителей в КНР, но реальные правовые механизмы для регулирования этого процесса пока отсутствуют. По данным компании, если Вашингтон всё-таки даст «добро», NVIDIA могла бы увеличить выручку ещё на $2–$5 млрд — помимо $54 млрд, которые компания, вероятно, получит в III квартале. Хотя NVIDIA всё ещё не может продать запас H20 в Китае, компании удалось найти другого покупателя, на которого ограничения не распространяются. NVIDIA продала ему соответствующих ускорителей на $650 млн, высвободив благодаря сделке «зарезервированные» $180 млн.
28.08.2025 [13:03], Руслан Авдеев
Китайский бизнес переходит на подержанные ускорители NVIDIA A100 и H100 из-за проблем с поставками H20Китайская ИИ-индустрия постепенно переходит на восстановленные или подержанные ИИ-ускорители NVIDIA A100 и H100 после того, как очередные экспортные ограничения на NVIDIA H20 заставили компании искать альтернативы этому продукту. Искусственно ослабленный ускоритель H20 должен был сохранить присутствие NVIDIA на китайском рынке, но чип фактически «оказался на обочине» даже после того, как на его продажи вновь дали зелёный свет после временного запрета — китайские регуляторы поставили под сомнение его безопасность, сообщает Tom’s Hardware со ссылкой на Digitimes. Всё это привело к стремительному росту спроса на старые модели A100 и H100, китайские компании проводят некую «реконфигурацию» таких ускорителей для использования в недорогих, но высокопроизводительных системах инференса. Последний требует значительно меньше ресурсов, чем обучение ИИ-моделей, рабочие нагрузки могут эффективно выполняться на относительно слабом оборудовании. Именно поэтому даже A100 с 80 Гбайт HBM2e (2 Тбайт/с), представленный ещё в 2020 году, в некоторых случаях остаётся вполне востребованным. Хотя архитектура Ampere уступает Hopper по пиковой производительности, она всё ещё эффективна для инференса благодаря относительно большому объёму памяти и развитой экосистеме ПО CUDA. Для чат-ботов и рекомендательных систем экономически эффективно использовать системы без самых современных чипов. Представленные в 2022 году H100 значительно производительнее A100 в задачах, связанных с обучением. В то же время H20 изначально был оптимизирован для менее ресурсоёмкого инференса, но его возможности урезали так сильно, что производительность в сравнении с H100 у этой модели ниже в 3–7 раз, а в задачах, связанных с вычислениями FP64, он медленнее более чем в 30 раз. Другими словами, даже A100 всё ещё могут быть привлекательнее для китайских покупателей, чем новые H20. ![]() Источник изображения: NVIDIA Поскольку пока никому не удалось создать что-то сопоставимое с программной экосистемой NVIDIA CUDA, старые GPU вполне востребованы. Тем более что оборудование для инференса менее требовательно во всех отношениях, а китайские ЦОД, по-видимому, не испытывают проблем с энергий и готовы платит за восстановленную устаревшую электронику, даже с пониженной надёжностью. В результате NVIDIA оказалась в странном положении. Компания в своё время списала $5,5 млрд из-за нераспроданных запасов H20 — когда в США решили полностью запретить их поставки в Китай. После снятия запрета компания резко нарастила выпуск H20, но теперь столкнулась уже с нежеланием властей КНР видеть эти чипы в стране. Тем не менее, её ускорители по-прежнему являются одним из главных катализаторов бума ИИ в Китае. Другими словами, чипы компании по-прежнему доминируют на рынке Поднебесной, но активность на теневых рынках может снизить выгоду от бизнеса с Китаем. Впрочем, уже появилась информация о разработке нового ускорителя на основе современной архитектуры Blackwell — хотя и тоже ослабленного.
28.08.2025 [12:16], Владимир Мироненко
Рекордные продажи NVIDIA не впечатлили инвесторов из-за слабой выручки в сегменте ЦОД и неопределённости с поставками в КитайNVIDIA сообщила финансовые результаты за II квартал 2026 финансового года, завершившийся 27 июля 2025 года. Прибыль и выручка компании превзошли ожидания аналитиков. Также было заявлено, что рост продаж в III квартале сохранится на уровне выше 50 %, что стало для Уолл-стрит сигналом о том, что спрос на ИИ-инфраструктуру не будет снижаться, пишет ресурс CNBC. Выручка составила $46,74 млрд, что на 6 % больше, чем в предыдущем квартале, и на 56 % больше, чем годом ранее, а также больше прогноза аналитиков, опрошенных LSEG, в размере $46,06 млрд. Скорректированная чистая прибыль (Non-GAAP) составила $25,78 млрд или $1,05 на разводнённую акцию, что выше консенсус-прогноза аналитиков, по данным от LSEG, в размере $1,01 на разводнённую акцию. Несмотря на достигнутые результаты, акции компании упали в ходе расширенных торгов на 2,3 %, поскольку выручка от продуктов для ЦОД второй квартал подряд оказалась ниже прогнозов, составив $41,1 млрд (рост год к году на 56 %) при прогнозе StreetAccount в $41,34 млрд. Как полагает ресурс The Guardian, это также свидетельствует о том, что опасения инвесторов по поводу пузыря ИИ и последствий торговых войн Дональда Трампа (Donald Trump) не утихли. Рост выручки NVIDIA год к году превышает 50 % уже девять кварталов подряд, начиная с середины 2023 года, когда начался бум генеративного ИИ. Однако II квартал был отмечен для NVIDIA самым слабым ростом за этот период. NVIDIA также значительно увеличила чистую прибыль по сравнению с прошлым годом — до $26,42 млрд или $1,08 на разводнённую акцию, что на 59 % больше, чем за аналогичный период прошлого года. В сегменте продуктов для ЦОД выручка от поставки решений для вычислений выросла на 50 % год к году до $33,84 млрд, а выручка от продаж сетевого оборудования выросла за квартал на 98 % до $7,25 млрд. Более половины выручки в этом сегменте принесли крупные клиенты. Выручка от решений с архитектурой Blackwell увеличилась год к году на 17 % до $27 млрд. В прошедшем квартале продажи H20 китайским клиентам не осуществлялись. NVIDIA реализовала из ранее зарезервированных запасов H20 на сумму $180 млн клиентам за пределами Китая. Финансовый директор Колетт Кресс (Colette Kress) заявила, что NVIDIA может получить от $2 до $5 млрд выручки от продажи H20 в Китай в течение квартала, если позволит геополитическая обстановка. По её словам, некоторые компании выразили заинтересованность в приобретении H20, и первая группа компаний уже получила лицензии на его покупку. Гендиректор NVIDIA Дженсен Хуанг (Jensen Huang) подчеркнул важность для компании китайского рынка, продажи на котором, по его словам, могут составить до $50 млрд в этом году. «Мы обсуждаем с администрацией важность того, чтобы американские компании имели возможность работать на китайском рынке», — сказал Хуанг. Он также заявил, что помимо одобрения продаж H20 в Китае компаниям, не подпадающим под санкции, у NVIDIA есть потенциальная возможность в конечном итоге продавать в этой стране версию ускорителя на архитектуре Blackwell. Напомним, что американским компаниям было разрешено продавать чипы в Китай при условии уплаты 15 % экспортной пошлины в госбюджет. Предложенную правительством схему юристы назвали неконституционным злоупотреблением властью. Колетт Кресс дала понять, что отсутствие поставок в Китай в минувшем квартале был вызвано неопределённостью этой схемы, которая официально не закреплена в федеральном законодательстве. «Хотя некоторые наши китайские клиенты получили лицензии за последние несколько недель, — сказала Кресс, — мы не отгружали ни одного ускорителя H20 по этим лицензиям». Что касается других направлений деятельности NVIDIA, то выручка от игрового бизнеса в отчётном квартале выросла на 49 % по сравнению с прошлым годом до $4,29 млрд. Автомобильное и робототехническое подразделение компании увеличило продажи год к году на 69 % до $586 млн. В сегменте профессиональной визуализации продажи выросли на 32 % до $601 млн. NVIDIA прогнозирует выручку в текущем квартале в размере $54 млрд ± 2 %. Компания уточнила, что её прогноз не учитывает поставки H20 в Китай. По данным LSEG, аналитики ожидают выручку в финансовом III квартале в размере $53,1 млрд. Хуанг заявил, что компания ожидает, что к концу десятилетия расходы на ИИ-инфраструктуру составят от $3 до $4 трлн, пишет TechCrunch.
28.08.2025 [09:28], Владимир Мироненко
ASUS Cloud увеличит вычислительные мощности Тайваня на 50 %, построив 250-Пфлопс ИИ-суперкомпьютерASUS Cloud в партнёрстве с Taiwan AI Cloud (Taiwan Web Service Corp) и Национальным центром высокопроизводительных вычислений Тайваня (National Center for High-performance Computing, NCHC) в Тайнане (Тайвань) построит суперкомпьютер на ускорителях NVIDIA. Об этом сообщил гендиректор ASUS Cloud и Taiwan AI Cloud Питер Ву (Peter Wu, на фото ниже) в интервью газете South China Morning Post (SCMP). Питер Ву рассказал, что суперкомпьютер с начальной производительностью 80 Пфлопс (точность не уточняется) будет работать на 1700 ускорителях NVIDIA H200. Его запуск запланирован на декабрь, а со временем производительность новой системы вырастет до 250 Пфлопс. Ранее сообщалось, что NVIDIA также поставит два суперускорителя GB200 NVL72 и узлы HGX B300 для данной машины. По словам Ву, после запуска суперкомпьютера общая вычислительную мощность HPC-систем Тайваня вырастет минимум на 50 %. В феврале 2025 года Национальный совет по науке и технологиям Тайваня (NSTC) объявил о планах по увеличению общей вычислительной мощности систем страны примерно до 1200 Пфлопс к 2029 году с имеющихся 160 Пфлопс. Как отметил DataCenter Dynamics, ASUS ранее сотрудничала с NVIDIA в развёртывании суперкомпьютеров на Тайване, включая 9-Плфопс машину Taiwania 2. В 2022 году ASUS и NVIDIA построили на Тайване суперкомпьютер для медицинских исследований. Taiwan AI Cloud уже реализовала аналогичные нынешнему проекты по созданию ИИ-инфраструктуры в других странах. Среди них — ЦОД в Сингапуре, а также объект во Вьетнаме с 200 ускорителями NVIDIA, который строят для государственного оператора Viettel. Этот проект стартовал в начале 2025 года после того, как правительство США одобрило поставку чипов NVIDIA. Ву отметил рост популярности агентного ИИ. Министерство цифровых технологий острова (MODA) «рекомендовало нам предоставить открытую архитектуру с фреймворком агентного ИИ», чтобы помочь местным компаниям использовать или модернизировать свои существующие приложения, сказал он. Говоря о материковом Китае, Питер Ву заявил, что компании будет «непросто» реализовывать там аналогичные проекты «из-за ситуации с поставками GPU». Китайский подход, заключающийся в «стекировании и кластеризации» малопроизводительных чипов для достижения производительности, аналогичной системам с передовыми ИИ-ускорителями, может быть осуществим с точки зрения инференса. Ву отметил, что запуск DeepSeek «рассуждающей» модели R1 в январе спровоцировал рост спроса на инференс, поскольку эта модель превосходно справляется с такими задачами. «Если рабочая нагрузка аналогична [инференсу], будет легче внедрить альтернативную технологическую схему с существующими [чипами]», — сказал Ву, добавив, что разработчики «могут столкнуться с проблемами в выборе GPU», если проект предполагает обучение или тонкую настройку ИИ-систем. Говоря о будущем, Ву сообщил, что ожидает дальнейшего развития трёх сегментов ИИ в будущем: вычислительной геномики, квантовых вычислений и так называемых цифровых двойников. «Приложение-убийца [для цифровых двойников] может появиться в сфере ухода за пожилыми людьми, помогая им получать лекарства, еду или принимать душ», — прогнозирует Ву.
28.08.2025 [01:20], Владимир Мироненко
288 E-ядер и 576 Мбайт L3-кеша: Intel поделилась подробностями о Xeon 7 Clearwater ForestIntel сообщила подробности о новом поколении серверных процессоров Xeon 7 с кодовым названием Clearwater Forest, выполненных по техпроцессу Intel 18A с использованием технологии 3D-упаковки. Сообщается, что новые процессоры представляет собой значительный шаг вперёд по сравнению с предыдущим поколением Sierra Forest, предлагая увеличенный объём кеша, более быстрые энергоэффективные ядра (E-Core) и более высокую пропускную способность памяти. Как отметил ресурс ServeTheHome, использование только ядер E-Core делает Clearwater Forest ориентированным на рабочие нагрузки, требующие выполнения множества потоков с высокой энергоэффективностью, но не обязательно требующие максимально возможной производительности в однопоточном режиме, что характерно для массивных задач виртуализации. Чипы Xeon 6900E (Sierra Forrest-AP) тоже были ориентированы на гиперскейлеров и облака, но популярности не снискали. Это один из первых чипов, созданных по техпроцессу Intel 18A, который обеспечивает значительный скачок энергоэффективности, а также улучшение архитектуры ядра. Также важным фактором является переход на 3D-стекирование кристаллов, реализованное с помощью Foveros Direct 3D. Именно проблемы с техпроцессом и упаковкой вынудили компанию перенести запуск чипов на 2026 год. По словам Intel, в Clearwater Forest в рамках архитектуры Darkmont, которая является обновлением Sierra Glen E-Core, задействованной в Sierra Forest, используется девятипоточное декодирование (вместо шестипоточного в Sierra Forest) с помощью трёх трёхпоточных декодеров. Также был улучшен механизм предсказания ветвлений, чтобы соответствовать более широкому окну и повысить общую точность. Объём L1-кеша инструкций составляет 64 Кбайт на ядро. Что касается бэкэнда, то возможность отправки операций вне очереди увеличилась с 5 до 8. В общей сложности за такт можно выполнить 16 операций, что вдвое больше, чем у Sierra Forest. Система OOE (Out-of-Order Engine) также обновлена. Теперь возможно передавать в планировщик (или в буфер переупорядочивания) 8 инструкций за такт (+60 %) и завершать исполнение до 16 операций за такт (вдвое больше). Количество целочисленных и векторных вычислительных блоков увеличено вдвое, количество блоков генерации адресов загрузки — в полтора раза, а количество блоков генерации адресов сохранения — в два раза. Размер буфера внеочередного исполнения увеличен на 60 % до 416 блоков. Количество портов исполнения также значительно увеличилось — до 26, и это несмотря на небольшой показатель эффективности ядра. Подсистема памяти ядра теперь может выполнять три загрузки (1,5x) и два сохранения (без изменений) за раз. Более ранняя отдача от операций загрузки может помочь снизить задержку. Глубокая буферизация поддерживает до 128 промахов L2 (увеличение в два раза). Общее увеличение IPC составляет 17 % согласно тесту SpecIntRate17. Сообщается, что в Clearwater Forest также реализованы усовершенствованные предвыборки на всех уровнях кеша, а список специфических функций Xeon E-Core включает:
Один модуль Clearwater Forest состоит из четырёх ядер со совместным доступом к 4 Мбайт общего L2-кеша, как и в Sierra Forest. Пропускная способность L2-кеша до 400 Гбайт/с. Каждое ядро может общаться с L2-кешем на скорости 200 Гбайт/с, тогда как между модулями реализован интерконнект с пропускной способностью 35 Гбайт/с. 72 модуля формируют 288 ядер + 576 Мбайт общего L3-кеша. Всего на чип приходится 12 каналов памяти DDR5-8000 (о MRDIMM речи нет) для модулей общей ёмкостью 1,5 Тбайт. В отличие от Sierra Forest, основанного на 2,5D-дизайне, а Clearwater Forest используется 3D-дизайн с чиплетами CPU, расположенными поверх более крупных базовых тайлов, вместе с остальными компонентами. Конфигурация Clearwater Forest включает 12 чиплетов E-Core (Intel 18A), 3 базовых тайла (Intel 3) и 2 чиплета I/O (Intel 7). Для межкристальных соединений используется EMIB. I/O-подсистема включает 96 линий PCIe 5.0, из которых 64 могут работать с CXL. По словам компании, двухсокетная система на базе Clearwater Forest предлагает 576 ядер с 1152 Мбайт L3-кеша, 144 линии UPI (576 Гбайт/с), до 3 Тбайт RAM (чтение до 1300 Гбайт/с). Intel утверждает, что стойки на базе Clearwater Forest могут обеспечить с предыдущим поколением чипа 3,5-кратный прирост производительности на Вт. У AMD же есть 192-ядерные Turin Dense с ядрами Zen 5c с 384 Мбайт L3-кеша, 12 каналами DDR5-6000, 128 линиями PCIe 5.0 (64 CXL; до 160 линий в двухсокетной платформе), а также поддержкой SMT и AVX-512.
27.08.2025 [16:50], Руслан Авдеев
Дональд Трамп заявил, что ИИ ЦОД Meta✴ в Луизиане будет стоить $50 млрд, а не $10 млрдПрезидент США Дональд Трамп (Donald Trump) заявил, что Meta✴ Platforms намерена постратить $50 млрд на строительство своего гигантского дата-центра Hyperion в сельской местности Луизианы (США). По словам Трампа, он буквально «в восторге» от стоимости проекта, сообщает Bloomberg. В Meta✴ отказались комментировать высказывания Трампа. IT-гигант, готовый потратить сотни миллиардов долларов на попытки стать ключевым игроком в гонке ИИ-проектов, ранее сообщал только то, что инвестиции превысят $10 млрд. По словам Трампа, американские компании теперь могут строить крупные дата-центры только потому, что власти позволяют им строить собственные мощности для генерации электричества. Кампус Hyperion будет запитан от новой электростанции Entergy на природном газе. От неё до окрестностей ЦОД протянут отдельную ЛЭП, которая сама по себе обойдётся в $1,2 млрд. ![]() Источник изображения: Kool C/unsplash.com Ранее в августе сообщалось, что Meta✴ выбрала Pacific Investment Management и Blue Owl Capital, чтобы те возглавили раунд финансирования на $29 млрд для развития кампуса в Луизиане. На сегодня это крупнейшее финансовое вливание, связанное с конкретным дата-центром — с большим отрывом от других проектов. Как сообщает Reuters, в июне 2025 года объединила все свои исследовательские группы по искусственному интеллекту в новое подразделение — Superintelligence Labs. Это стратегическое решение было реакцией на две ключевые проблемы: уход ведущих специалистов и довольно прохладный приём, который получила её последняя открытая модель Llama 4. |
|