Лента новостей
23.08.2025 [12:09], Сергей Карасёв
Make Intel Great Again: власти США приобрели долю в Intel ради укрепления «американского технологического лидерства»Корпорация Intel объявила о достижении «исторического соглашения» с администрацией президента США Дональда Трампа (Donald Trump), направленного на укрепление «американского технологического лидерства» и возрождение полупроводниковой отрасли страны. По условиям договора, власти США приобретут 9,9 % долю в Intel: стоимость сделки составит $8,9 млрд. В рамках соглашения американское правительство приобретёт 433,3 млн обыкновенных акций Intel по цене $20,47 за бумагу. На момент закрытия торгов 22 августа 2025 года стоимость акций корпорации находилась на уровне $25. Государственная доля будет профинансирована за счёт оставшихся $5,7 млрд грантов, ранее предоставленных Intel, но ещё не выплаченных в рамках «Закона о чипах и науке» (CHIPS and Science Act). Ещё $3,2 млрд составят средства, выделенные корпорации по программе Secure Enclave, которая предусматривает создание безопасных чипов в интересах Министерства обороны США (DoD). Отмечается, что ранее Intel уже получила гранты CHIPS and Science Act в размере $2,2 млрд. Таким образом, общая сумма государственной поддержки составит $11,1 млрд. Договор предусматривает, что участие государства в капитале Intel будет пассивным — без представителей в совете директоров компании или иных прав управления и получения доступа к корпоративной информации. Американские власти также обязуются голосовать в интересах совета директоров Intel по вопросам, требующим одобрения акционеров (за некоторыми исключениями). Соглашение предполагает, что правительство США в течение пяти лет сможет купить дополнительно 5 % акций Intel по цене $20 за бумагу в том случае, если доля Intel в её бизнесе по производству чипов (Intel Foundry) упадёт ниже 51 %. Поддержка со стороны властей поможет Intel в расширении производства микросхем на территории США. Корпорация реализует масштабную инициативу, инвестируя более $100 млрд в развитие своих площадок на территории страны. Ожидается, что новое предприятие в Аризоне начнёт массовое производство продукции уже в текущем году: при этом будут использоваться наиболее передовые технологии. В целом, Intel оказалась в сложном положении, уступив NVIDIA в гонке ИИ. На этом фоне в конце 2024 года свой пост покинул генеральный директор Intel Пэт Гелсингер (Pat Gelsinger). Его место занял Лип-Бу Тан (Lip-Bu Tan), которого в начале текущего месяца потребовал сместить с занимаемой должности президент Трамп в связи с «серьёзным конфликтом интересов».
22.08.2025 [22:44], Владимир Мироненко
Связанные одной целью: NVIDIA Spectrum-XGS Ethernet объединит несколько ЦОД в одну ИИ-суперфабрикуNVIDIA анонсировала Spectrum-XGS Ethernet, масштабируемую технологию для объединения распределённых ЦОД в унифицированные гигантские ИИ-фабрики. Похожее решения не так давно предложила и Broadcom, анонсировав коммутаторы Jericho4. На фоне роста спроса на обработку ИИ-нагрузок отдельные ЦОД достигают пределов допустимой мощности, но выход за пределы одного объекта связан с трудностями из-за ограничений существующей сетевой инфраструктуры с высокой задержкой, джиттером и непрогнозируемой производительностью. NVIDIA позиционирует Spectrum-XGS Ethernet как революционное дополнение к платформе NVIDIA Spectrum-X Ethernet, которое устраняет эти ограничения. Решение служит третьим столпом ИИ-вычислений, выходящим за рамки вертикального и горизонтального масштабирования, и предназначено для повышения производительности и масштабируемости Spectrum-X Ethernet для объединения нескольких распределённых ЦОД в массивы ИИ-фабрик, способных обрабатывать ИИ-нагрузки в гигантских масштабах. «Индустриальная революция в области ИИ уже началась, и гигантские ИИ-фабрики являются важнейшей инфраструктурой, — заявил генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) — С помощью NVIDIA Spectrum-XGS Ethernet мы расширяем возможности по масштабированию, объединяя ЦОД в городах, странах и континентах в огромные ИИ-суперфабрики». Spectrum-XGS Ethernet дополняет платформу Spectrum-X алгоритмами, которые динамически адаптируют сеть с учётом расстояния между объектами ЦОД. Решение опирается на усовершенствованный автоматический контроль перегрузки, точное управление задержками и сквозную телеметрию. По словам NVIDIA, Spectrum-XGS Ethernet практически удваивает производительность работы библиотеки коллективных коммуникаций NVIDIA NCCL, ускоряя взаимодействие множества ускорителей и множества узлов и обеспечивая предсказуемую производительность в географически распределённых ИИ-кластерах. В результате несколько ЦОД будут работать как единая ИИ-фабрика, полностью оптимизированная для подключения на больших расстояниях. CoreWeave одной из первых внедрит Spectrum-XGS Ethernet в свои ЦОД. Сама NVIDIA не новичок в распределённых ИИ-вычислениях — её собственные кластеры для внутренних нужд размещались в нескольких дата-центрах США.
22.08.2025 [18:08], Владимир Мироненко
Новейшие ИИ-технологии помогут трансформировать обучение, сделав его полностью персонализированнымСектор образования всегда отличался своей инновационностью, но в последние годы образовательные технологии (EdTech) претерпели беспрецедентную трансформацию. Стремительное развитие ИИ-технологий сделало EdTech-решения более персонализированными, доступными и привлекательными, заметно отразившись на методах обучения студентов, работе преподавателей и образовательных учреждений — от виртуальных классов и адаптивных платформ обучения до виртуальных ИИ-преподавателей и инструментов оценки. Одним из наиболее значимых достижений в области EdTech является переход от универсального обучения к персонализированному. ИИ-платформы позволяют анализировать поведение, прогресс и успеваемость учащихся в режиме реального времени, и с учётом этого корректировать планы уроков. Если, например, у учащегося будут обнаружены пробелы в конкретных навыках, ему будут автоматически предоставлены упражнения для их устранения. Это не только поможет учащимся успешно осваивать учебную программу в своем собственном темпе, но и сохранит им мотивацию к решению реальных задач. Еще одним прорывом в сфере образовательных технологий на основе ИИ стало появление иммерсивных образовательных сред. В настоящее время в преподавании широко используются инструменты на основе технологий виртуальной (VR) и дополненной (AR) реальности, позволяя более наглядно раскрывать сложные нюансы в области науки, техники и медицины. Способствуя более глубокому вовлечению в суть предмета, интерактивные возможности сокращают разрыв между теорией и практикой. Представьте себе студента-биолога, изучающего кровеносную систему человека в 3D, или ученика-историка, совершающего виртуальную экскурсию по Древнему Риму. ИИ также позволяет автоматизировать рутинную работу, включая выставление оценок за задания, создание учебных материалов и управление посещаемостью, благодаря чему преподаватели могут уделять больше внимания наставничеству. Автоматизированные системы оценивания, интеллектуальные инструменты составления расписания и генераторы учебных программ, управляемые ИИ, снижают затраты времени преподавателей на решение административных задач, предупреждая эмоциональное выгорание и способствуя повышению эффективности обучения. Даже такие продвинутые инструменты, как детекторы ИИ, всё чаще используются для проверки эссе, выявления плагиата и предоставления обратной связи в режиме реального времени для обеспечения академической честности и качества контента. Также одним из наиболее важных элементов использования ИИ сфере образовании считается прогнозирующая аналитика. ИИ на основе имеющихся данных может прогнозировать успеваемость учащихся, выявлять тех, кто подвержен риску отставания, и оперативно рекомендовать меры по предотвращению подобных случаев. Это позволяет преподавателям и учреждениям упреждать возникновение проблем, повышая качество обучения. Использование ИИ в EdTech открывает огромные перспективы, но также поднимает вопросы об обеспечении конфиденциальности, справедливости и предвзятости. Использование данных учащихся требует ответственного подхода и строгих мер предосторожности при их сборе и хранении. Кроме того, возникает риск увеличения разрыва в уровне образования, поскольку не у всех учащихся есть равный доступ к передовым цифровым инструментам. Программисты и разработчики политик должны уделять приоритетное внимание инклюзивности, прозрачности и справедливости по мере развития отрасли, считают эксперты. Слияние ИИ и EdTech, скорее всего, приведёт к гиперперсонализированному образованию, в рамках которого студенты будут иметь доступ к индивидуальной образовательной экосистеме, основанной на интеллектуальных помощниках, иммерсивном моделировании и обратной связи в режиме реального времени. По мере развития генеративного ИИ появятся полностью автономные виртуальные преподаватели, ведущие обучение по нескольким дисциплинам, со взаимодействием, максимально приближённым к человеческому. Следует отметить, что цель образовательных технологий на базе ИИ заключается не в том, чтобы заменить преподавателей, а в том, чтобы расширить их возможности, усилить воздействие и создать более инклюзивную, эффективную и увлекательную образовательную среду для всех учащихся.
22.08.2025 [17:23], Руслан Авдеев
Google: медианный промпт Gemini потребляет 0,24 Вт·ч энергии и 0,26 мл водыКомпания Google опубликовала документ, в котором описывается методология измерения потребления энергии и воды, а также выбросов и воздействия на окружающую среду ИИ Gemini. Как утверждают в Google, «медианное» потребление энергии на одно текстовое сообщение в Gemini Apps составляет 0,24 Вт·ч, выбросы составляют 0,03 г эквивалента углекислого газа (CO2e), а воды расходуется 0,26 мл. В компании подчёркивают, что показатели намного ниже в сравнении со многими публичными оценками, а на каждый запрос тратится электричества столько же, сколько при просмотре телевизора в течение девяти секунд. Google на основе данных о сокращении выбросов в ЦОД и декарбонизации энергопоставок полагает, что за последние 12 месяцев энергопотребление и общий углеродный след сократились в 33 и 44 раза соответственно. В компании надеются, что исследование внесёт вклад в усилия по разработке эффективного ИИ для общего блага. Методологии расчёта энергопотребления учитывает энергию, потребляемую активными ИИ-ускорителями (TPU), CPU, RAM, а также затраты простаивающих машин и общие расходы ЦОД. При этом из расчёта исключаются затраты на передачу данных по внешней сети, энергия устройств конечных пользователей, расходы на обучение моделей и хранение данных. Впрочем, по мнению некоторых экспертов, данные вводят в заблуждение, поскольку часть информации не учитывается. Так, не принимается в расчёт «косвенное» использование воды, поскольку считается только вода, которую ЦОД применяют для охлаждения, хотя значительная часть водопотребления приходится на генерирующие мощности, а не на их потребителей. Кроме того, при учёте углеродных выбросов должны приниматься во внимание не купленные «зелёные сертификаты», а реальное загрязняющее действие ЦОД в конкретной локации с учётом использования «чистой» и «обычной» энергии в местной электросети. OpenAI также недавно оказалась в центре внимания экспертов и общественности, поскольку появилась информация, что её новейшая модель GPT-5 потребляет более 18 Вт·ч электроэнергии, до 40 Вт·ч на ответ средней длины. Сам глава компании Сэм Альтман (Sam Altman) объявил, что в среднем на выполнение запроса тратится около 0,34 Вт∙ч и около 0,32 мл воды. Это несколько больше, чем заявленные показатели Google Gemini, однако, согласно расчётам исследователей, эти цифры, скорее всего, актуальны для GPT-4o.
22.08.2025 [16:33], Владимир Мироненко
Почти как у самой NVIDIA: NVLink Fusion позволит создавать кастомные ИИ-платформыТехнологии NVIDIA NVLink и NVLink Fusion позволят вывести производительность ИИ-инференса на новый уровень благодаря повышенной масштабируемости, гибкости и возможностям интеграции со сторонними чипами, которые в совокупности отвечает стремительному росту сложности ИИ-моделей, сообщается в блоге NVIDIA. С ростом сложности ИИ-моделей выросло количество их параметров — с миллионов до триллионов, что требует для обеспечения их работы значительных вычислительных ресурсов в виде кластеров ускорителей. Росту требований, предъявляемых к вычислительным ресурсам, также способствует внедрение архитектур со смешанным типом вычислений (MoE) и ИИ-алгоритмов рассуждений с масштабированием (Test-time scaling, TTS). NVIDIA представила интерконнект NVLink в 2016 году. Пятое поколение NVLink, вышедшее в 2024 году, позволяет объединить в одной стойке 72 ускорителя каналами шириной 1800 Гбайт/с (по 900 Гбайт/с в каждую сторону), обеспечивая суммарную пропускную способность 130 Тбайт/с — в 800 раз больше, чем у первого поколения. Производительность NVLink зависит от аппаратных средств и коммуникационных библиотек, в частности, от библиотеки NVIDIA Collective Communication Library (NCCL) для ускорения взаимодействия между ускорителями в топологиях с одним и несколькими узлами. NCCL поддерживает вертикальное и горизонтальное масштабирование, а также включает в себя автоматическое распознавание топологии и оптимизацию передачи данных. Технология NVLink Fusion призвана обеспечить гиперскейлерам доступ ко всем проверенным в производстве технологиям масштабирования NVLink. Она позволяет интегрировать кастомные микросхемы (CPU и XPU) с технологией вертикального и горизонтального масштабирования NVIDIA NVLink и стоечной архитектурой для развёртывания кастомных ИИ-инфраструктур. Технология охватывает NVLink SerDes, чиплеты, коммутаторы и стоечную архитектуру, предлагая универсальные решения для конфигураций кастомных CPU, кастомных XPU или комбинированных платформ. Модульное стоечное решение OCP MGX, позволяющее интегрировать NVLink Fusion с любым сетевым адаптером, DPU или коммутатором, обеспечивает заказчикам гибкость в построении необходимых решений, заявляет NVIDIA. NVLink Fusion поддерживает конфигурации с кастомными CPU и XPU с использованием IP-блоков и интерфейса UCIe, предоставляя заказчикам гибкость в реализации интеграции XPU на разных платформах. Для конфигураций с кастомными CPU рекомендуется интеграция с IP NVLink-C2C для оптимального подключения и производительности GPU. При этом предлагаются различные модели доступа к памяти и DMA. NVLink Fusion использует преимущества обширной экосистемы кремниевых чипов, в том числе от партнёров по разработке кастомных полупроводников, CPU и IP-блоков, что обеспечивает широкую поддержку и быструю разработку новых решений. Основанная на десятилетнем опыте использования технологии NVLink и открытых стандартах архитектуры OCP MGX, платформа NVLink Fusion предоставляет гиперскейлерам исключительную производительность и гибкость при создании ИИ-инфраструктур, подытожила NVIDIA. При этом основным применением NVLink Fusion с точки зрения NVIDIA, по-видимому, должно стать объединение сторонних чипов с её собственными, а не «чужих» чипов между собой. Более открытой альтернативой NVLink должен стать UALink с дальнейшим масштабированием посредством Ultra Ethernet.
22.08.2025 [15:18], Руслан Авдеев
Исполинская 5-ГВт газовая электростанция Pacifico Energy в Техасе запитает ИИ ЦОД и никого большеКалифорнийская Pacifico Energy рассказала о планах строительства 5-ГВт автономной газовой электростанции GW Ranch в округе Пекос (Pecos County, Техас) на территории площадью более 3,2 тыс. га, где также разместятся аккумуляторные энергохранилища. Вся энергия пойдёт исключительно на питание ИИ ЦОД гиперскейл-класса, сообщает Datacenter Dynamics. В компании подчёркивают, что проект будет изолирован от энергосети штата. Это позволит ускорить развёртывание ИИ ЦОД без ущерба надёжности энергоснабжения. К 2028 году Pacifico намерена довести выработку до 1 ГВт, а к 2030 году выйти на проектную мощность в 5 ГВт. Мощность аккумуляторного хранилища составит 1,8 ГВт — его модульные системы будут внедряться поэтапно. Компания находится в процессе получения разрешений от техасского природоохранного регулятора Texas Commission on Environmental Quality. По её мнению, проект соответствует требованиям в области защиты окружающей среды. Топливо будет поставляться с месторождений Пермского нефтегазового бассейна США (Permian Basin), одного из крупнейших источников природного газа в стране. По данным Управления энергетической информации США (EIA), в 2024 году добыча природного газа в Пермском бассейне выросла на 12 % год к году, составив 22 % от общего объёма продаж природного газа в стране. Большие объёмы добычи и благоприятная нормативная база в Техасе побудили отдельных операторов ЦОД заняться развитием электростанций для обеспечения своих объектов энергией в обход основных электросетей. Занимающиеся добычей природного газа в Пермском бассейне компании также позиционируют себя в качестве поставщиков для сектора ЦОД. ![]() Источник изображения: Chris LeBoutillier/unsplash.com Одобрение регуляторов получил и ещё один крупный проект — власти Луизианы разрешили Entergy постройку трёх газовых электростанций для питания крупнейшего ИИ ЦОД Meta✴ Hyperion, который после полного завершения строительства потребует до 5 ГВт. Для него придётся построить отдельную ЛЭП. Новые электростанции будут поставлять до 2,3 ГВт, ещё 1,5 ГВт планируется получить от проектов солнечной энергетики. Часть расходов по созданию новых объектов Meta✴ возьмёт на себя. Местные регуляторы быстро одобрили проект, поскольку Entergy намекнула, что в случае задержек Meta✴ может перенсти проект в другой штат. Некоторые эксперты опасаются, что расходы на строительство лягут на плечи обычных потребителей, а электростанции поставят под угрозу здоровье местных жителей (xAI уже столкнулась с такими претензиями) и состояние окружающей среды. А сам ЦОД может привести к дефициту питьевой воды.
22.08.2025 [13:30], Алексей Разин
NVIDIA поможет японцам создать один из мощнейших суперкомпьютеров мира FugakuNEXTВ начале этого десятилетия созданный в Японии суперкомпьютер Fugaku пару лет удерживался на верхней строчке в рейтинге мощнейших систем мира TOP500, он и сейчас занимает в нём седьмое место. В попытке технологического реванша японский исследовательский институт RIKEN доверился компании NVIDIA, которая поможет Fujitsu создать суперкомпьютер Fugaku NEXT. Помимо Arm-процессоров Fujitsu MONAKA-X, в основу нового японского суперкомпьютера лягут и ускорители NVIDIA, хотя изначально планировалось обойтись без них. NVIDIA будет принимать непосредственное участие в интеграции своих компонентов в суперкомпьютерную систему, создаваемую японскими партнёрами. По меньшей мере, скоростные интерфейсы, которыми располагает NVIDIA, пригодятся для обеспечения быстрого канала передачи информации между CPU и ускорителями. Сама NVIDIA обтекаемо говорит, что для этого можно задействовать шину NVLink Fusion. С ускорителями AMD, по-видимому, эти процессоры будут общаться более традиционно, т.е. по шине PCIe. Кроме того, NVIDIA собирается применить в составе данной системы передовые типы памяти. Применяемые при создании FugakuNEXT решения, по мнению представителей NVIDIA, смогут стать типовыми для всей отрасли в дальнейшем. Подчёркивается, что будущая платформа станет не просто техническим апгрейдом, а инвестицией в будущее страны. Сама архитектура системы не уточняется, поэтому сложно судить, насколько активно японские разработчики будут использовать ускорители NVIDIA, и к какому поколению они будут относиться. Создатели ставят перед собой амбициозные цели — FugakuNEXT должна стать первой системой «зетта-масштаба». Своего предшественника она должна превзойти более чем в пять раз, обеспечив быстродействие на уровне 600 Эфлопс (FP8). На уровне приложений прирос быстродействия может быть стократным, отмечают создатели. Новый суперкомпьютер сможет применяться для обучения больших языковых моделей. Впрочем, в строй он будет введён лишь к 2030 году, а Fujitsu ещё только предстоит выпустить свои процессоры MONAKA-X для этой системы.
22.08.2025 [11:12], Руслан Авдеев
Meta✴ потратит $10 млрд на ИИ-инфраструктуру в Google CloudMeta✴ намерена потратить более $10 млрд на облачные сервисы Google в течение шести лет, сообщает CNBC со ссылкой на The Information. По словам одного из источников, сделка преимущественно связана с арендой ИИ-инфраструктуры. По данным Reuters, Meta✴ будет использовать серверы Google Cloud, её хранилища данных, сетевые и иные сервисы. Google путается угнаться за более крупными облачными конкурентами вроде AWS и Microsoft Azure. Ранее в этом году она заключила соглашение с OpenAI, которая ранее сильно зависела от Azure, но стала более свободна в выборе облачных партнёров. В июле Alphabet объявила, что подразделение Google Cloud во II квартале принесло $2,83 млрд операционной прибыли за подписки на ПО и инфраструктуру. В то же время выручка в тот же период составила $13,6 млрд, на 32 % больше, чем выручка компании в целом (13,8 %). ![]() Источник изображения: Growtika/unsplash.com В прошлом месяце в отчёте о доходах Meta✴ заявила, что общие расходы в 2025 году составят $114–$118 млрд. Компания активно вкладывает средства ИИ-стартапы, собственные ИИ-модели Llama и иные ИИ-сервисы в своём портфолио услуг. Глава Meta✴ Марк Цукерберг (Mark Zuckerberg) заявил, что компания потратит «сотни миллиардов» долларов на создание огромных ИИ ЦОД. Также компания увеличила минимальную сумму запланированных капитальных затрат на $2 млрд., по итогам года они составят от $66 до $72 млрд. Примечательно, что Google и Meta✴ активно конкурируют на рынке онлайн-рекламы. Тем не менее, Meta✴ нужна буквально вся доступная облачная инфраструктура, до которой она сможет дотянуться, в том числе AWS и Microsoft. Также Meta✴ ищет внешних партнёров для финансирования своих запросов на инфраструктуру для ИИ-проектов. Ранее в этом месяце были раскрыты данные, согласно которым она намерена продать активы своих дата-центров на сумму $2 млрд.
22.08.2025 [10:09], Руслан Авдеев
От офиса до сборочных линий и складов: Advantech вложит $96,5 млн в новый кампус в СШАТайваньская Advantech, занимающаяся выпуском коммерческих и индустриальных вычислительных платформ, направит $96,5 млн на строительство новой штаб-квартиры в Тастине (Tustin, Калифорния) для расширения деловой активности компании в Северной Америке. Завершение строительства запланировано на III квартал 2026 года. Инициатива, как ожидается, поможет довести выручку в регионе до $1,5 млрд и более, сообщает DigiTimes. В новом кампусе компания разместит офисные помещения, сборочные линии, склады, выставочные и конференц-залы. Также там найдётся место для зон постпродажного ремонта. Это часть стратегии Advantech по укреплению локальных возможностей сборки и обслуживания оборудования, а также расширению присутствия на североамериканском рынке, на который в 2024 году приходилось более 38 % мирового рынка промышленных периферийных устройств, оцениваемого в $21,29 млрд. Эксперты ожидают, что сектор продуктов для периферийных вычислений компании Advantech будет расти приблизительно на 13,4 % в год до 2030 года благодаря развитию соответствующего рынка и ИИ-приложений. Компания намерена укреплять взаимодействие с основными клиентами в регионе и расширять сферу применения своих технологий. ![]() Источник изображения: Suyash Mahar/unsplash.com Хотя у компании имеются определённые трудности вроде новых пошлин и «оптимизации складских запасов» клиентами, компания продемонстрировала значительный рост на ключевом для себя рынке: её выручка в Северной Америке в I квартале 2025 года выросла на 23% год к году, а высокие темпы роста (свыше 20 %) сохранялись в течение всего I полугодия. Компания сотрудничает с отраслевыми партнёрами, включая NVIDIA, ADATA и др. для продвижения инновационных ИИ-решений в промышленности. По словам Advantech, искусственный интеллект и периферийные вычисления играют ключевую роль в цифровой трансформации производственной сферы. Компания намерена продемонстрировать практические шаги по внедрению новых решений. Расширение бизнеса и акцент на передовых технологиях отражают стратегию Advantech по поддержанию долгосрочного роста на североамериканском рынке. Некоторые тайваньские компании идут более извилистым путём. Foxconn продала завод по производству электромобилей в США под давлением ряда факторов компании SoftBank, а теперь сама же займётся там в рамках нового партнёрства выпуском ИИ-оборудования для проекта Stargate.
22.08.2025 [09:12], Сергей Карасёв
Kioxia создала флеш-модуль вместимостью 5 Тбайт со скоростью передачи данных до 64 Гбайт/сКомпания Kioxia сообщила о разработке прототипа флеш-модуля (аналога SSD), который сочетает в себе большую вместимость и высокую пропускную способность. Изделие создано в рамках проекта, поддерживаемого японской Организацией по развитию новых энергетических и промышленных технологий (NEDO). Модуль способен хранить 5 Тбайт информации. При этом скорость передачи данных теоретически может составлять до 64 Гбайт/с. Для достижения таких показателей Kioxia разработала новую архитектуру, основанную на последовательном соединении микросхем флеш-памяти. ![]() Источник изображения: Kioxia В составе изделия каждый флеш-чип подключён к отдельному контроллеру. Благодаря такой каскадной конфигурации пропускная способность не снижается даже при увеличении количества микросхем флеш-памяти. Благодаря последовательному соединению контроллеров удалось добиться снижения энергопотребления и улучшения целостности сигнала. Задействована модуляция PAM4. Скорость передачи информации достигает 128 Гбит/с на контроллер. В прототипе применяется интерфейс PCIe 6.0 х8. Для каждого контроллера обеспечивается снижение задержки чтения путём предварительной выборки данных с использованием внутреннего кеша. Специальные механизмы обработки сигналов позволяют достичь скорости обмена данными между контроллером и подключенным к нему флеш-чипом в 4 Гбит/с. Общее энергопотребление модуля составляет менее 40 Вт. Ожидается, что новинка найдёт применение в таких сферах, как интернет вещей, периферийные ИИ-вычисления, анализ больших данных и пр. |
|