Материалы по тегу: intel
16.09.2025 [11:53], Сергей Карасёв
Silver Lake закрыла сделку по покупке контролирующей доли в бизнесе AlteraЧастная инвестиционная компания Silver Lake завершила сделку по приобретению контролирующей 51 % доли в структуре Altera — разработчика FPGA. Продавцом выступила корпорация Intel, которая сохранила за собой оставшиеся 49 %. Стоимость реализованного актива оценивается в $3,3 млрд. Intel купила Altera в 2015 году за $16,7 млрд, создав на её основе подразделение Programmable Solutions Group (PSG) по разработке FPGA и сопутствующего ПО. О договоре с Silver Lake по продаже контролирующей доли в бизнесе Altera было объявлено в апреле нынешнего года. Как отмечается, завершение сделки с Silver Lake превращает Altera в крупнейшего в мире независимого поставщика решений на базе FPGA. Ожидается, что благодаря операционной независимости и поддержке Silver Lake компания Altera сможет повысить гибкость деятельности, а также получит дополнительные ресурсы для ускорения разработки передовых FPGA-решений и предоставления расширенной поддержки клиентам и партнёрам по всему миру. Altera при участии Silver Lake рассчитывает укрепить позиции в ключевых секторах, включая промышленную автоматизацию, робототехнику, аэрокосмическую отрасль, оборонный сегмент, дата-центры, телекоммуникационное оборудование и периферийные ИИ-системы. ![]() Источник изображения: Altera В 2024 финансовом году Altera получила $1,54 млрд выручки, тогда как в I половине 2025-го этот показатель составил $816 млн. В период с января по июнь включительно компания понесла операционные расходы в размере $356 млн. Продажа активов Altera происходит на фоне значительных структурных изменений в Intel и растущего финансового давления. Корпорация оказалась в сложном положении, уступив NVIDIA на рынке ИИ-ускорителей. В конце августа Intel объявила о достижении «исторического соглашения» с администрацией президента США Дональда Трампа (Donald Trump): американские власти приобретут 9,9 % долю в корпорации, а стоимость сделки составит $8,9 млрд. Это поможет Intel в расширении производства микросхем на территории США.
12.09.2025 [23:07], Владимир Мироненко
Intel Arc Pro впервые поучаствовали в бенчмарках MLPerf Inference, но в лидерах предсказуемо осталась NVIDIAMLCommons объявил результаты набора бенчмарков MLPerf Inference v5.1. Последний раунд демонстрирует, насколько быстро развивается инференс и соответствующие бенчмарки, пишет ресурс HPCwire. В этом раунде было рекордное количество заявок — 27. Представлены результаты сразу пяти новых ускорителей: AMD Instinct MI355X, Intel Arc Pro B60 48GB Turbo, NVIDIA GB300, NVIDIA RTX 4000 Ada 20GB, NVIDIA RTX Pro 6000 Blackwell Server Edition. Всего же количество результатов MLPerf перевалило за 90 тыс. результатов. В текущем раунде были представлены три новых бенчмарка: тест рассуждений на основе модели DeepSeek-R1, тест преобразования речи в текст на основе Whisper Large v3 и небольшой тест LLM на основе Llama 3.1 8B. Как отметил ресурс IEEE Spectrum, бенчмарк на основе модели Deepseek R1 671B (671 млрд параметров), более чем в 1,5 раза превышает самый крупный бенчмарк предыдущего раунда на основе Llama 3.1 405B. В модели Deepseek R1, ориентированной на рассуждения, большая часть вычислений выполняется во время инференса, что делает этот бенчмарк ещё более сложным. Что касается самого маленького бенчмарка, основанного на Llama 3.1 8B, то, как поясняют в MLCommons, в отрасли растёт спрос на рассуждения с малой задержкой и высокой точностью. SLM отвечают этим требованиям и являются отличным выбором для таких задач, как реферирование текста или периферийные приложения. В свою очередь бенчмарк преобразования голоса в текст, основанный на Whisper Large v3, был разработан в ответ на растущее количество голосовых приложений, будь то смарт-устройства или голосовые ИИ-интерфейсы. NVIDIA вновь возглавила рейтинг MLPerf Inference, на этот раз с архитектурой Blackwell Ultra, представленной платформой NVIDIA GB300 NVL72, которая установила рекорд, увеличив пропускную способность DeepSeek-R1 на 45 % по сравнению с предыдущими системами GB200 NVL72 (Blackwell). NVIDIA также продемонстрировала высокие результаты в бенчмарке Llama 3.1 405B, который имеет более жёсткие ограничения по задержке. NVIDIA применила дезагрегацию, разделив фазы работы с контекстом и собственно генерацию между разными ускорителями. Этот подход, поддерживаемый фреймворком Dynamo, обеспечил увеличение в 1,5 раза пропускной способности на один ускоритель по сравнению с традиционным обслуживанием на системах Blackwell и более чем в 5 раз по сравнению с системами на базе Hopper. NVIDIA назвала «дезагрегированное обслуживание» одним из ключевых факторов успеха, помимо аппаратных улучшений при переходе к Blackwell Ultra. Также свою роль сыграло использованием фирменного 4-бит формата NVFP4. «Мы можем обеспечить точность, сопоставимую с BF16», — сообщила компания, добавив, что при этом потребляется значительно меньше вычислительной мощности. Для работы с контекстом NVIDIA готовит соускоритель Rubin CPX. В более компактных бенчмарках решения NVIDIA также продемонстрировали рекордную пропускную способность. Компания сообщила о более чем 18 тыс. токенов/с на один ускоритель в бенчмарке Llama 3.1 8B в автономном режиме и 5667 токенов/с на один ускоритель в Whisper. Результаты были представлены в офлайн-, серверных и интерактивных сценариях, при этом NVIDIA сохранила лидерство в расчете на GPU во всех категориях. AMD представила результаты AMD Instinct MI355X только в «открытой» категории, где разрешены программные модификации модели. Ускоритель MI355X превзошёл в бенчмарке Llama 2 70B ускоритель MI325X в 2,7 раза по количеству токенов/с. В этом раунде AMD также впервые обнародовала результаты нескольких новых рабочих нагрузок, включая Llama 2 70B Interactive, MoE-модель Mixtral-8x7B и генератор изображений Stable Diffusion XL. В число «закрытых» заявок AMD входили системы на базе ускорителей AMD MI300X и MI325X. Более продвинутый MI325X показал результаты, схожие с показателями систем на базе NVIDIA H200 на Llama 2 70b, в комбинированном тесте MoE и тестах генерации изображений. Кроме того, компанией была представлена первая гибридная заявка, в которой ускорители AMD MI300X и MI325X использовались для одной и той же задачи инференса — бенчмарка на базе Llama 2 70b. Возможность распределения нагрузки между различными типами ускорителей — важный шаг, отметил IEEE Spectrum. В этом раунде впервые был представлен и ускоритель Intel Arc Pro. Для бенчмарков использовалась видеокарта MaxSun Intel Arc Pro B60 Dual 48G Turbo, состоящая из двух GPU с 48 Гбайт памяти, в составе платформы Project Battlematrix, которая может включать до восьми таких ускорителей. Система показала результаты на уровне NVIDIA L40S в небольшом тесте LLM и уступила ему в тесте Llama 2 70b. Следует также отметить, что в этом раунде, как и в предыдущем, участвовала Nebius (ранее Yandex N.V.). Компания отметила, что результаты, полученные на односерверных инсталляциях, подтверждают, что Nebius AI Cloud обеспечивает «высочайшие» показатели производительности для инференса базовых моделей, таких как Llama 2 70B и Llama 3.1 405B. В частности, Nebius AI Cloud установила новый рекорд производительности для NVIDIA GB200 NVL72. По сравнению с лучшими результатами предыдущего раунда, её однохостовая инсталляция показала прирост производительности на 6,7 % и 14,2 % при работе с Llama 3.1 405B в автономном и серверном режимах соответственно. «Эти два показателя также обеспечивают Nebius первое место среди других разработчиков MLPerf Inference v5.1 для этой модели в системах GB200», — сообщила компания.
12.09.2025 [00:44], Владимир Мироненко
Intel покидает уже второй по счёту главный архитектор Xeon в этом годуРесурсу CRN стало известно о предстоящем уходе из Intel в конце этого месяца Ронака Сингхала (Ronak Singhal), который стал уже вторым главным архитектором процессоров Xeon, покинувшим компанию за последние восемь месяцев после ухода в январе Сайлеша Коттапалли (Sailesh Kottapalli) в Qualcomm. Intel подтвердила CRN, что Сингхал покидает компанию. Уход Сингхала ресурс связывает с назначением Кеворка Кечичяна (Kevork Kechichian) главой Группы ЦОД (DCG) в рамках реорганизации компании, проводимой гендиректором Лип-Бу Таном (Lip-Bu Tan). В последнее время Сингхал руководил реализацией технологической стратегии и управлением продуктами в разрезе серверных процессоров Xeon. Ответственность Сингхалпа также распространялась на разработку платформ и множества сопутствующих технологий, касающихся памяти, безопасности и ИИ в Xeon. Ранее Сингхал руководил разработкой серверной архитектуры Haswell и Broadwell, последний из которых, по его словам, стал первым 14-нм серверным чипом компании. Он также возглавлял разработку IP-блоков для процессоров Xeon, Core и Atom. ![]() Источник изображения: Intel В конце июля Тан сообщил сотрудникам, что компания «сосредоточена на восстановлении» доли рынка серверных процессоров, наращивая выпуск чипов Granite Rapids, а также «расширяя возможности для нагрузок гиперскейлеров». Как отметил финансовый директор Дэвид Цинснер (David Zinsner), линейка серверных продуктов Diamond Rapids, запуск которой запланирован на следующий год, «не даёт желаемого результата». По его словам, следующее поколение — Coral Rapids — является «реальной возможностью», которая позволит Intel «сделать действительно большой шаг вперёд».
11.09.2025 [17:14], Владимир Мироненко
Перезагрузка кадров в высшем эшелоне должна помочь Intel в укреплении бизнесаIntel объявила о кадровых изменениях в руководящем составе, «которые поддерживают стратегию компании по укреплению своего основного продуктового бизнеса, созданию надёжного производственного предприятия и развитию инженерной культуры во всем бизнесе». Новые назначения являются дальнейшей реализацией объявленного Лип-Бу Таном на апрельском мероприятии Intel Vision курса на реорганизацию компании, включающую перестройку производства и структуры управления, а также устранение факторов, препятствующий её развитию, таких как излишняя бюрократия. Кеворк Кечичян (Kevork Kechichian) возглавил группу ЦОД (DCG), Джим Джонсон (Jim Johnson) был назначен старшим вице-президентом и генеральным директором группы клиентских вычислений Intel (CCG). А Шринивасана «Шрини» Айенгар (Srinivasan «Srini» Iyengar), старший вице-президент и научный сотрудник, будет руководить вновь созданной Центральной инженерной группой (Central Engineering Group, CEG). Кечичян, Джонсон и Айенгар будут подчиняться непосредственно гендиректору Лип-Бу Тану (Lip-Bu Tan). ![]() Источник изображения: Intel Intel расширила полномочия Наги Чандрасекарана (Naga Chandrasekaran), исполнительного вице-президента и главного директора по технологиям и операциям Intel Foundry, включив в них услуги литографического производства. Ранее в этом году Intel консолидировала разработку технологий и производство под руководством Чандрасекарана. Также было объявлено об уходе Мишель Джонстон Холтхаус (Michelle Johnston Holthaus), бывшего временного со-генерального директора, которая долгое время занимала пост исполнительного директора. До этого она была гендиректором по продуктам Intel. В связи с неудовлетворительной работой Intel в апреле разделила свою группу ЦОД и ИИ (DCAI), отделив направление ЦОД (DCG), которое сосредоточится на выпуске высокопроизводительных процессоров и сопутствующего оборудования. Кеворк Кечичян, имеющий 30-летний опыт работы в сфере технологий, до этого был исполнительным вице-президентом Arm по инжинирингу, а также занимал руководящие инженерные должности в NXP Semiconductors и Qualcomm. На новом месте он будет руководить бизнесом Intel в области ЦОД в облачных и корпоративных средах, включая процессоры Intel Xeon. «Кеворк обладает мощным сочетанием стратегического видения, технической глубины и операционной строгости, что поможет нам воспользоваться возможностями роста на рынке ЦОД», — отметил Тан в своём заявлении. Рон Уэстфолл (Ron Westfall), аналитик HyperFrame Research, сообщил ресурсу Data Center Knowledge, что назначение Кечичяна соответствует стратегии Тана в отношении группы ЦОД, назвав его «самым значительным» шагом в перестановках в руководстве. «Его обширный опыт работы в Arm, где он руководил серьёзным переходом от лицензирования интеллектуальной собственности к комплексным решениям, позволяет предположить, что Intel ищет руководителя, способного не только управлять текущим бизнесом, но и внедрять более комплексный подход, ориентированный на решения, чтобы конкурировать на высококонкурентном рынке ЦОД», — считает аналитик. В свою очередь, аналитик Moor Insights & Strategy Мэтт Кимбалл (Matt Kimball) считает, что Кечичяна назначили руководителем основного подразделения Intel по ЦОД из-за планов по воплощению концепции кастомизации. «Возможно, здесь есть что-то большее… им нужен человек, более гибкий в плане операционализации и встраивания в организацию, ведь кастомизация — это совсем не то же самое, что простое объединение нескольких ядер или увеличение тактовой частоты, — заявил Кимбалл ресурсу Data Center Knowledge. — Они говорили о чём-то более похожем на то, что делает Arm». Комментируя новость об уходе Холтхаус, Уэстфолл заявил, что это событие «знаменует собой конец целой эпохи». «Но с этими новыми назначениями Intel, несомненно, реорганизует высшее руководство, чтобы сделать его более гибким и сконцентрированным на заявленных стратегических целях: инновациях, реализации проектов и клиентоориентированности», — добавил он.
10.09.2025 [12:25], Сергей Карасёв
QNAP представила сетевые хранилища серии QuNAS на базе Intel Twin LakeКомпания QNAP Systems анонсировала сетевые хранилища семейства QuNAS, ориентированные на применение в сфере малого и среднего бизнеса. В серию вошли модели Qu805, Qu605 и Qu405, рассчитанные соответственно на восемь, шесть и четыре накопителя формата LFF или SFF с интерфейсом SATA-3. В основу новинок, выполненных в «настольном» форм-факторе, положена аппаратная платформа Intel Twin Lake. В зависимости от модификации задействован чип Intel Processor N150 (четыре ядра; до 3,6 ГГц; 6 Вт) или Core i3-N355 (восемь ядер; до 3,9 ГГц; 15 Вт). В состав этих изделий входит ускоритель Intel UHD Graphics. Объём оперативной памяти LPDDR5 составляет 8 или 16 Гбайт (один слот для модуля SO-DIMM). В оснащение NAS также входит флеш-модуль eMMC вместимостью 8 Гбайт. Отсеки для накопителей у устройств располагаются во фронтальной части; допускается горячая замена. Кроме того, предусмотрены два внутренних коннектора M.2 2280 для NVMe SSD с интерфейсом PCIe 3.0 x1. Хранилища наделены двумя сетевыми портами 2.5GbE с гнёздами RJ45, двумя портами USB 3.2 Gen2 Type-A и одним портом USB 3.2 Gen2 Type-C (на лицевой панели), а также интерфейсом HDMI 2.1 с поддержкой видео с разрешением до 4096 × 2160 пикселей (60 Гц). Габариты модели Qu805 составляют 165 × 217 × 285 мм, масса — 3,1 кг (без установленных накопителей). Версии Qu605 и Qu405 имеют размеры соответственно 165 × 217 × 226 и 165 × 217 × 168 мм и весят 2,52 и 2,15 кг. Диапазон рабочих температур — от 0 до +40 °C. Питание обеспечивает внешний адаптер мощностью 96–150 Вт.
08.09.2025 [16:34], Сергей Карасёв
Hyper-Threading наоборот: Intel разрабатывает технологию программно-определяемых суперъядерКорпорация Intel подала патентную заявку на технологию так называемых программно-определяемых суперъядер Software Defined Super Cores (SDC). Решение призвано устранить неэффективность традиционных высокопроизводительных ядер в составе современных CPU. Отмечается, что в мощных процессорах высокопроизводительные ядра зачастую жертвуют энергоэффективностью ради увеличения быстродействия путём динамического повышения тактовой частоты. Кроме того, существуют проблемы аппаратного масштабирования. При использовании более крупных ядер уменьшается их общее количество, что ограничивает многопоточную производительность. В случае гибридных архитектур, сочетающих производительные и энергэффективные ядра, возникают дополнительные сложности при проектировании и тестировании. Новый подход Intel сводится к тому, что несколько соседних физических ядер объединяются в одно виртуальное суперъядро. Специальный программный инструмент разбивает программу на сегменты инструкций, которые затем обрабатываются параллельно физическими ядрами: например, одно ядро может обслуживать нечётные сегменты, другое — чётные. При этом для операционной системы и собственно приложения эти ядра создают иллюзию одного производительного ядра. Благодаря синхронизации достигается упорядоченная обработка кода. В одно суперъядро предлагается объединять прежде всего ядра, принадлежащие одному и тому же классу — например, только энергоэффективные или только производительные. Ядра могут совместно использовать свои кеши или работать независимо. В любом случае система гарантирует упорядочение памяти и архитектурную целостность. Перевод физических ядер в режим SDC может осуществляться динамически с учётом текущей нагрузки и особенностей работы конкретной программы. Ключевыми преимуществами предложенной архитектуры являются повышение энергетической эффективности и возможность масштабирования ресурсов. Кроме того, SDC открывает путь к созданию более адаптивных вычислительных платформ.
02.09.2025 [12:15], Сергей Карасёв
MSI выпустила серверы на платформе NVIDIA MGX с ускорителями RTX Pro 6000 Blackwell Server EditionКомпания MSI анонсировала серверы CG480-S5063 и CG290-S3063 на модульной архитектуре NVIDIA MGX. Новинки, ориентированные на задачи ИИ, оснащаются ускорителями NVIDIA RTX Pro 6000 Blackwell Server Edition с 96 Гбайт GDDR7. Модель CG480-S5063 выполнена в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP) с показателем TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти DDR5 (RDIMM 6400/5200 или MRDIMM 8000). Во фронтальной части могут быть размещены 20 накопителей E1.S с интерфейсом PCIe 5.0 x4 (NVMe). Кроме того, есть два внутренних коннектора М.2 2280/22110 (PCIe 5.0 x2; NVMe). Система предлагает восемь слотов PCIe 5.0 x16 для карт FHFL двойной ширины и пять слотов PCIe 5.0 x16 для карт FHFL одинарной ширины. Таким образом, могут быть задействованы до восьми ИИ-ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition. В оснащение входят контроллер ASPEED AST2600, два сетевых порта 10GbE на основе Intel X710-AT2, выделенный сетевой порт управления 1GbE, интерфейсы USB 3.0/2.0 Type-A и Mini-DisplayPort. Питание обеспечивают четыре блока мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Задействовано воздушное охлаждение с вентиляторами, допускающими горячую замену. Диапазон рабочих температур — от 0 до +35 °C. В свою очередь, сервер CG290-S3063 типоразмера 2U рассчитан на один процессор Xeon 6500P/6700P с TDP до 350 Вт. Предусмотрены 16 слотов для модулей DDR5 (RDIMM 6400/5200 или MRDIMM 8000). В тыльной части расположены отсеки для четырёх SFF-накопителей U.2 с интерфейсом PCIe 5.0 x4 (NVMe). Внутри есть два коннектора М.2 2280/22110 для SSD (PCIe 5.0 x2; NVMe). Данная система предоставляет четыре слота PCIe 5.0 x16 для карт FHFL двойной ширины и три слота PCIe 5.0 x16 для карт FHFL одинарной ширины. Могут быть использованы до четырёх ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition. Прочие характеристики включают контроллер ASPEED AST2600, сетевой порт управления 1GbE, интерфейсы USB 3.0/2.0 Type-A и Mini-DisplayPort. Применены четыре блока питания мощностью 2400 Вт с сертификатом 80 PLUS Titanium и воздушное охлаждение.
02.09.2025 [10:14], Владимир Мироненко
Intel анонсировала IPU E2200 — 400GbE DPU семейства Mount MorganIntel анонсировала DPU Intel IPU E2200 под кодовым названием Mount Morgan, представляющий собой обновление 200GbE IPU E2100 (Mount Evans), разработанного при участии Google для использования в ЦОД последней, причём не слишком удачного, как отмечают некоторые аналитики. Как сообщает ресурс ServeTheHome, Intel E2200 производится по 5-нм техпроцессу TSMC. Он базируется на той же архитектуре, что и предшественник, но предлагает более высокую производительность. Вычислительный блок включает до 24 ядер Arm Neoverse N2 с 32 Мбайт кеша, четырьмя каналами LPDDR5-6400 и выделенным сопроцессором безопасности. Сетевая часть представлена 400GbE-интерфейсом с RDMA, а хост-подключение — подсистемой PCIe 5.0 x32 со встроенным коммутатором PCIe. Для обработки пакетов используется P4-программируемый процессор FXP — модуль обработки трафика с алгоритмом синхронизации и настраиваемыми параметрами разгрузки, что позволяет распределять задачи между сетевыми ускорителями и Arm-ядрами. Также имеется встроенный криптографический модуль для шифрования на лету (inline) с поддержкой протоколов IPsec и PSP, настраиваемый для каждого потока. Для управления потоками данных используется модуль Traffic Shaper с поддержкой алгоритма Timing Wheel. Кроме того, есть и Look-Aside-блок для компрессии и шифрования. Как и в IPU E2100, у IPU E2200 имеется выделенный модуль для независимого внешнего управления. Также поддерживаются программируемые параметры разгрузки с использованием различных ускорителей и IP-блоков.
01.09.2025 [12:05], Сергей Карасёв
Giga Computing представила блейд-серверы B-series на платформах AMD и IntelКомпания Giga Computing, подразделение Gigabyte, объявила о выходе на рынок блейд-серверов, оптимизированных для корпоративных, периферийных и облачных рабочих нагрузок. Первыми системами данного класса стали устройства B343-C40 на аппаратной платформе AMD и B343-X40 с процессорами Intel. Все новинки выполнены в форм-факторе 3U с 10-узловой конфигурацией. Серверы B343-C40 могут комплектоваться чипами EPYC 4005 Grado или Ryzen 9000 с показателем TDP до 170 Вт (один CPU на узел). Доступны четыре слота для модулей оперативной памяти DDR5-5600/3600 в расчете на узел. Каждый из узлов также предлагает слот M.2 2280/22110 для SSD с интерфейсом PCIe 3.0 x1, два посадочных места для SFF-накопителей NVMe/SATA, один разъём для карты расширения FHHL с интерфейсом PCIe 5.0 x16 и три слота OCP NIC 3.0 (PCIe 4.0 x4). В семейство B343-C40 вошли три модификации — B343-C40-AAJ1, B343-C40-AAJ2 и B343-C40-AAJ3, у которых каждый из узлов располагает соответственно двумя портами 1GbE (контроллер Intel I350-AM2), 10GbE (Broadcom BCM57416) и 25GbE (Broadcom BCM57502). Кроме того, во всех случаях предусмотрен выделенный сетевой порт управления 1GbE и контроллер ASPEED AST2600 (на узел). За питание системы в целом отвечают четыре блока мощностью 2000 Вт с сертификатом 80 PLUS Titanium. Диапазон рабочих температур — от +10 до +30 °C. Применяется воздушное охлаждение. В свою очередь, у сервера B343-X40 каждый из узлов может оснащаться одним процессором Xeon 6300 с TDP до 95 Вт. Реализованы четыре слота для модулей DDR5-4400/4000/3600 и два порта 1GbE на основе контроллера Intel I350-AM2 (в расчёте на узел). В остальном технические характеристики аналогичны AMD-версиям. При этом в систему установлены два блока питания мощностью 3200 Вт с сертификатом 80 PLUS Titanium.
28.08.2025 [01:20], Владимир Мироненко
288 E-ядер и 576 Мбайт L3-кеша: Intel поделилась подробностями о Xeon 7 Clearwater ForestIntel сообщила подробности о новом поколении серверных процессоров Xeon 7 с кодовым названием Clearwater Forest, выполненных по техпроцессу Intel 18A с использованием технологии 3D-упаковки. Сообщается, что новые процессоры представляет собой значительный шаг вперёд по сравнению с предыдущим поколением Sierra Forest, предлагая увеличенный объём кеша, более быстрые энергоэффективные ядра (E-Core) и более высокую пропускную способность памяти. Как отметил ресурс ServeTheHome, использование только ядер E-Core делает Clearwater Forest ориентированным на рабочие нагрузки, требующие выполнения множества потоков с высокой энергоэффективностью, но не обязательно требующие максимально возможной производительности в однопоточном режиме, что характерно для массивных задач виртуализации. Чипы Xeon 6900E (Sierra Forrest-AP) тоже были ориентированы на гиперскейлеров и облака, но популярности не снискали. Это один из первых чипов, созданных по техпроцессу Intel 18A, который обеспечивает значительный скачок энергоэффективности, а также улучшение архитектуры ядра. Также важным фактором является переход на 3D-стекирование кристаллов, реализованное с помощью Foveros Direct 3D. Именно проблемы с техпроцессом и упаковкой вынудили компанию перенести запуск чипов на 2026 год. По словам Intel, в Clearwater Forest в рамках архитектуры Darkmont, которая является обновлением Sierra Glen E-Core, задействованной в Sierra Forest, используется девятипоточное декодирование (вместо шестипоточного в Sierra Forest) с помощью трёх трёхпоточных декодеров. Также был улучшен механизм предсказания ветвлений, чтобы соответствовать более широкому окну и повысить общую точность. Объём L1-кеша инструкций составляет 64 Кбайт на ядро. Что касается бэкэнда, то возможность отправки операций вне очереди увеличилась с 5 до 8. В общей сложности за такт можно выполнить 16 операций, что вдвое больше, чем у Sierra Forest. Система OOE (Out-of-Order Engine) также обновлена. Теперь возможно передавать в планировщик (или в буфер переупорядочивания) 8 инструкций за такт (+60 %) и завершать исполнение до 16 операций за такт (вдвое больше). Количество целочисленных и векторных вычислительных блоков увеличено вдвое, количество блоков генерации адресов загрузки — в полтора раза, а количество блоков генерации адресов сохранения — в два раза. Размер буфера внеочередного исполнения увеличен на 60 % до 416 блоков. Количество портов исполнения также значительно увеличилось — до 26, и это несмотря на небольшой показатель эффективности ядра. Подсистема памяти ядра теперь может выполнять три загрузки (1,5x) и два сохранения (без изменений) за раз. Более ранняя отдача от операций загрузки может помочь снизить задержку. Глубокая буферизация поддерживает до 128 промахов L2 (увеличение в два раза). Общее увеличение IPC составляет 17 % согласно тесту SpecIntRate17. Сообщается, что в Clearwater Forest также реализованы усовершенствованные предвыборки на всех уровнях кеша, а список специфических функций Xeon E-Core включает:
Один модуль Clearwater Forest состоит из четырёх ядер со совместным доступом к 4 Мбайт общего L2-кеша, как и в Sierra Forest. Пропускная способность L2-кеша до 400 Гбайт/с. Каждое ядро может общаться с L2-кешем на скорости 200 Гбайт/с, тогда как между модулями реализован интерконнект с пропускной способностью 35 Гбайт/с. 72 модуля формируют 288 ядер + 576 Мбайт общего L3-кеша. Всего на чип приходится 12 каналов памяти DDR5-8000 (о MRDIMM речи нет) для модулей общей ёмкостью 1,5 Тбайт. В отличие от Sierra Forest, основанного на 2,5D-дизайне, а Clearwater Forest используется 3D-дизайн с чиплетами CPU, расположенными поверх более крупных базовых тайлов, вместе с остальными компонентами. Конфигурация Clearwater Forest включает 12 чиплетов E-Core (Intel 18A), 3 базовых тайла (Intel 3) и 2 чиплета I/O (Intel 7). Для межкристальных соединений используется EMIB. I/O-подсистема включает 96 линий PCIe 5.0, из которых 64 могут работать с CXL. По словам компании, двухсокетная система на базе Clearwater Forest предлагает 576 ядер с 1152 Мбайт L3-кеша, 144 линии UPI (576 Гбайт/с), до 3 Тбайт RAM (чтение до 1300 Гбайт/с). Intel утверждает, что стойки на базе Clearwater Forest могут обеспечить с предыдущим поколением чипа 3,5-кратный прирост производительности на Вт. У AMD же есть 192-ядерные Turin Dense с ядрами Zen 5c с 384 Мбайт L3-кеша, 12 каналами DDR5-6000, 128 линиями PCIe 5.0 (64 CXL; до 160 линий в двухсокетной платформе), а также поддержкой SMT и AVX-512. |
|