Лента новостей

23.08.2025 [12:09], Сергей Карасёв

Make Intel Great Again: власти США приобрели долю в Intel ради укрепления «американского технологического лидерства»

Корпорация Intel объявила о достижении «исторического соглашения» с администрацией президента США Дональда Трампа (Donald Trump), направленного на укрепление «американского технологического лидерства» и возрождение полупроводниковой отрасли страны. По условиям договора, власти США приобретут 9,9 % долю в Intel: стоимость сделки составит $8,9 млрд.

В рамках соглашения американское правительство приобретёт 433,3 млн обыкновенных акций Intel по цене $20,47 за бумагу. На момент закрытия торгов 22 августа 2025 года стоимость акций корпорации находилась на уровне $25.

Государственная доля будет профинансирована за счёт оставшихся $5,7 млрд грантов, ранее предоставленных Intel, но ещё не выплаченных в рамках «Закона о чипах и науке» (CHIPS and Science Act). Ещё $3,2 млрд составят средства, выделенные корпорации по программе Secure Enclave, которая предусматривает создание безопасных чипов в интересах Министерства обороны США (DoD). Отмечается, что ранее Intel уже получила гранты CHIPS and Science Act в размере $2,2 млрд. Таким образом, общая сумма государственной поддержки составит $11,1 млрд.

 Источник изображения: Intel

Источник изображения: Intel

Договор предусматривает, что участие государства в капитале Intel будет пассивным — без представителей в совете директоров компании или иных прав управления и получения доступа к корпоративной информации. Американские власти также обязуются голосовать в интересах совета директоров Intel по вопросам, требующим одобрения акционеров (за некоторыми исключениями). Соглашение предполагает, что правительство США в течение пяти лет сможет купить дополнительно 5 % акций Intel по цене $20 за бумагу в том случае, если доля Intel в её бизнесе по производству чипов (Intel Foundry) упадёт ниже 51 %.

Поддержка со стороны властей поможет Intel в расширении производства микросхем на территории США. Корпорация реализует масштабную инициативу, инвестируя более $100 млрд в развитие своих площадок на территории страны. Ожидается, что новое предприятие в Аризоне начнёт массовое производство продукции уже в текущем году: при этом будут использоваться наиболее передовые технологии.

В целом, Intel оказалась в сложном положении, уступив NVIDIA в гонке ИИ. На этом фоне в конце 2024 года свой пост покинул генеральный директор Intel Пэт Гелсингер (Pat Gelsinger). Его место занял Лип-Бу Тан (Lip-Bu Tan), которого в начале текущего месяца потребовал сместить с занимаемой должности президент Трамп в связи с «серьёзным конфликтом интересов».

Постоянный URL: https://servernews.kz/1128124
22.08.2025 [22:44], Владимир Мироненко

Связанные одной целью: NVIDIA Spectrum-XGS Ethernet объединит несколько ЦОД в одну ИИ-суперфабрику

NVIDIA анонсировала Spectrum-XGS Ethernet, масштабируемую технологию для объединения распределённых ЦОД в унифицированные гигантские ИИ-фабрики. Похожее решения не так давно предложила и Broadcom, анонсировав коммутаторы Jericho4.

На фоне роста спроса на обработку ИИ-нагрузок отдельные ЦОД достигают пределов допустимой мощности, но выход за пределы одного объекта связан с трудностями из-за ограничений существующей сетевой инфраструктуры с высокой задержкой, джиттером и непрогнозируемой производительностью.

NVIDIA позиционирует Spectrum-XGS Ethernet как революционное дополнение к платформе NVIDIA Spectrum-X Ethernet, которое устраняет эти ограничения. Решение служит третьим столпом ИИ-вычислений, выходящим за рамки вертикального и горизонтального масштабирования, и предназначено для повышения производительности и масштабируемости Spectrum-X Ethernet для объединения нескольких распределённых ЦОД в массивы ИИ-фабрик, способных обрабатывать ИИ-нагрузки в гигантских масштабах.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

«Индустриальная революция в области ИИ уже началась, и гигантские ИИ-фабрики являются важнейшей инфраструктурой, — заявил генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) — С помощью NVIDIA Spectrum-XGS Ethernet мы расширяем возможности по масштабированию, объединяя ЦОД в городах, странах и континентах в огромные ИИ-суперфабрики».

Spectrum-XGS Ethernet дополняет платформу Spectrum-X алгоритмами, которые динамически адаптируют сеть с учётом расстояния между объектами ЦОД. Решение опирается на усовершенствованный автоматический контроль перегрузки, точное управление задержками и сквозную телеметрию. По словам NVIDIA, Spectrum-XGS Ethernet практически удваивает производительность работы библиотеки коллективных коммуникаций NVIDIA NCCL, ускоряя взаимодействие множества ускорителей и множества узлов и обеспечивая предсказуемую производительность в географически распределённых ИИ-кластерах.

В результате несколько ЦОД будут работать как единая ИИ-фабрика, полностью оптимизированная для подключения на больших расстояниях. CoreWeave одной из первых внедрит Spectrum-XGS Ethernet в свои ЦОД. Сама NVIDIA не новичок в распределённых ИИ-вычислениях — её собственные кластеры для внутренних нужд размещались в нескольких дата-центрах США.

Постоянный URL: https://servernews.kz/1128100
22.08.2025 [18:08], Владимир Мироненко

Новейшие ИИ-технологии помогут трансформировать обучение, сделав его полностью персонализированным

Сектор образования всегда отличался своей инновационностью, но в последние годы образовательные технологии (EdTech) претерпели беспрецедентную трансформацию. Стремительное развитие ИИ-технологий сделало EdTech-решения более персонализированными, доступными и привлекательными, заметно отразившись на методах обучения студентов, работе преподавателей и образовательных учреждений — от виртуальных классов и адаптивных платформ обучения до виртуальных ИИ-преподавателей и инструментов оценки.

Одним из наиболее значимых достижений в области EdTech является переход от универсального обучения к персонализированному. ИИ-платформы позволяют анализировать поведение, прогресс и успеваемость учащихся в режиме реального времени, и с учётом этого корректировать планы уроков. Если, например, у учащегося будут обнаружены пробелы в конкретных навыках, ему будут автоматически предоставлены упражнения для их устранения. Это не только поможет учащимся успешно осваивать учебную программу в своем собственном темпе, но и сохранит им мотивацию к решению реальных задач.

 Источник изображения: Henry Storck/unsplash.com

Источник изображения: Henry Storck/unsplash.com

Еще одним прорывом в сфере образовательных технологий на основе ИИ стало появление иммерсивных образовательных сред. В настоящее время в преподавании широко используются инструменты на основе технологий виртуальной (VR) и дополненной (AR) реальности, позволяя более наглядно раскрывать сложные нюансы в области науки, техники и медицины. Способствуя более глубокому вовлечению в суть предмета, интерактивные возможности сокращают разрыв между теорией и практикой. Представьте себе студента-биолога, изучающего кровеносную систему человека в 3D, или ученика-историка, совершающего виртуальную экскурсию по Древнему Риму.

ИИ также позволяет автоматизировать рутинную работу, включая выставление оценок за задания, создание учебных материалов и управление посещаемостью, благодаря чему преподаватели могут уделять больше внимания наставничеству.

Автоматизированные системы оценивания, интеллектуальные инструменты составления расписания и генераторы учебных программ, управляемые ИИ, снижают затраты времени преподавателей на решение административных задач, предупреждая эмоциональное выгорание и способствуя повышению эффективности обучения. Даже такие продвинутые инструменты, как детекторы ИИ, всё чаще используются для проверки эссе, выявления плагиата и предоставления обратной связи в режиме реального времени для обеспечения академической честности и качества контента.

Также одним из наиболее важных элементов использования ИИ сфере образовании считается прогнозирующая аналитика. ИИ на основе имеющихся данных может прогнозировать успеваемость учащихся, выявлять тех, кто подвержен риску отставания, и оперативно рекомендовать меры по предотвращению подобных случаев. Это позволяет преподавателям и учреждениям упреждать возникновение проблем, повышая качество обучения.

Использование ИИ в EdTech открывает огромные перспективы, но также поднимает вопросы об обеспечении конфиденциальности, справедливости и предвзятости. Использование данных учащихся требует ответственного подхода и строгих мер предосторожности при их сборе и хранении. Кроме того, возникает риск увеличения разрыва в уровне образования, поскольку не у всех учащихся есть равный доступ к передовым цифровым инструментам. Программисты и разработчики политик должны уделять приоритетное внимание инклюзивности, прозрачности и справедливости по мере развития отрасли, считают эксперты.

Слияние ИИ и EdTech, скорее всего, приведёт к гиперперсонализированному образованию, в рамках которого студенты будут иметь доступ к индивидуальной образовательной экосистеме, основанной на интеллектуальных помощниках, иммерсивном моделировании и обратной связи в режиме реального времени. По мере развития генеративного ИИ появятся полностью автономные виртуальные преподаватели, ведущие обучение по нескольким дисциплинам, со взаимодействием, максимально приближённым к человеческому.

Следует отметить, что цель образовательных технологий на базе ИИ заключается не в том, чтобы заменить преподавателей, а в том, чтобы расширить их возможности, усилить воздействие и создать более инклюзивную, эффективную и увлекательную образовательную среду для всех учащихся.

Постоянный URL: https://servernews.kz/1127934
22.08.2025 [17:23], Руслан Авдеев

Google: медианный промпт Gemini потребляет 0,24 Вт·ч энергии и 0,26 мл воды

Компания Google опубликовала документ, в котором описывается методология измерения потребления энергии и воды, а также выбросов и воздействия на окружающую среду ИИ Gemini. Как утверждают в Google, «медианное» потребление энергии на одно текстовое сообщение в Gemini Apps составляет 0,24 Вт·ч, выбросы составляют 0,03 г эквивалента углекислого газа (CO2e), а воды расходуется 0,26 мл.

В компании подчёркивают, что показатели намного ниже в сравнении со многими публичными оценками, а на каждый запрос тратится электричества столько же, сколько при просмотре телевизора в течение девяти секунд. Google на основе данных о сокращении выбросов в ЦОД и декарбонизации энергопоставок полагает, что за последние 12 месяцев энергопотребление и общий углеродный след сократились в 33 и 44 раза соответственно. В компании надеются, что исследование внесёт вклад в усилия по разработке эффективного ИИ для общего блага.

Методологии расчёта энергопотребления учитывает энергию, потребляемую активными ИИ-ускорителями (TPU), CPU, RAM, а также затраты простаивающих машин и общие расходы ЦОД. При этом из расчёта исключаются затраты на передачу данных по внешней сети, энергия устройств конечных пользователей, расходы на обучение моделей и хранение данных.

 Источник изображений: Google

Источник изображений: Google

Впрочем, по мнению некоторых экспертов, данные вводят в заблуждение, поскольку часть информации не учитывается. Так, не принимается в расчёт «косвенное» использование воды, поскольку считается только вода, которую ЦОД применяют для охлаждения, хотя значительная часть водопотребления приходится на генерирующие мощности, а не на их потребителей. Кроме того, при учёте углеродных выбросов должны приниматься во внимание не купленные «зелёные сертификаты», а реальное загрязняющее действие ЦОД в конкретной локации с учётом использования «чистой» и «обычной» энергии в местной электросети.

OpenAI также недавно оказалась в центре внимания экспертов и общественности, поскольку появилась информация, что её новейшая модель GPT-5 потребляет более 18 Вт·ч электроэнергии, до 40 Вт·ч на ответ средней длины. Сам глава компании Сэм Альтман (Sam Altman) объявил, что в среднем на выполнение запроса тратится около 0,34 Вт∙ч и около 0,32 мл воды. Это несколько больше, чем заявленные показатели Google Gemini, однако, согласно расчётам исследователей, эти цифры, скорее всего, актуальны для GPT-4o.

Постоянный URL: https://servernews.kz/1128088
22.08.2025 [16:33], Владимир Мироненко

Почти как у самой NVIDIA: NVLink Fusion позволит создавать кастомные ИИ-платформы

Технологии NVIDIA NVLink и NVLink Fusion позволят вывести производительность ИИ-инференса на новый уровень благодаря повышенной масштабируемости, гибкости и возможностям интеграции со сторонними чипами, которые в совокупности отвечает стремительному росту сложности ИИ-моделей, сообщается в блоге NVIDIA.

С ростом сложности ИИ-моделей выросло количество их параметров — с миллионов до триллионов, что требует для обеспечения их работы значительных вычислительных ресурсов в виде кластеров ускорителей. Росту требований, предъявляемых к вычислительным ресурсам, также способствует внедрение архитектур со смешанным типом вычислений (MoE) и ИИ-алгоритмов рассуждений с масштабированием (Test-time scaling, TTS).

NVIDIA представила интерконнект NVLink в 2016 году. Пятое поколение NVLink, вышедшее в 2024 году, позволяет объединить в одной стойке 72 ускорителя каналами шириной 1800 Гбайт/с (по 900 Гбайт/с в каждую сторону), обеспечивая суммарную пропускную способность 130 Тбайт/с — в 800 раз больше, чем у первого поколения.

Производительность NVLink зависит от аппаратных средств и коммуникационных библиотек, в частности, от библиотеки NVIDIA Collective Communication Library (NCCL) для ускорения взаимодействия между ускорителями в топологиях с одним и несколькими узлами. NCCL поддерживает вертикальное и горизонтальное масштабирование, а также включает в себя автоматическое распознавание топологии и оптимизацию передачи данных.

Технология NVLink Fusion призвана обеспечить гиперскейлерам доступ ко всем проверенным в производстве технологиям масштабирования NVLink. Она позволяет интегрировать кастомные микросхемы (CPU и XPU) с технологией вертикального и горизонтального масштабирования NVIDIA NVLink и стоечной архитектурой для развёртывания кастомных ИИ-инфраструктур.

Технология охватывает NVLink SerDes, чиплеты, коммутаторы и стоечную архитектуру, предлагая универсальные решения для конфигураций кастомных CPU, кастомных XPU или комбинированных платформ. Модульное стоечное решение OCP MGX, позволяющее интегрировать NVLink Fusion с любым сетевым адаптером, DPU или коммутатором, обеспечивает заказчикам гибкость в построении необходимых решений, заявляет NVIDIA.

NVLink Fusion поддерживает конфигурации с кастомными CPU и XPU с использованием IP-блоков и интерфейса UCIe, предоставляя заказчикам гибкость в реализации интеграции XPU на разных платформах. Для конфигураций с кастомными CPU рекомендуется интеграция с IP NVLink-C2C для оптимального подключения и производительности GPU. При этом предлагаются различные модели доступа к памяти и DMA.

NVLink Fusion использует преимущества обширной экосистемы кремниевых чипов, в том числе от партнёров по разработке кастомных полупроводников, CPU и IP-блоков, что обеспечивает широкую поддержку и быструю разработку новых решений. Основанная на десятилетнем опыте использования технологии NVLink и открытых стандартах архитектуры OCP MGX, платформа NVLink Fusion предоставляет гиперскейлерам исключительную производительность и гибкость при создании ИИ-инфраструктур, подытожила NVIDIA.

При этом основным применением NVLink Fusion с точки зрения NVIDIA, по-видимому, должно стать объединение сторонних чипов с её собственными, а не «чужих» чипов между собой. Более открытой альтернативой NVLink должен стать UALink с дальнейшим масштабированием посредством Ultra Ethernet.

Постоянный URL: https://servernews.kz/1128089
22.08.2025 [15:18], Руслан Авдеев

Исполинская 5-ГВт газовая электростанция Pacifico Energy в Техасе запитает ИИ ЦОД и никого больше

Калифорнийская Pacifico Energy рассказала о планах строительства 5-ГВт автономной газовой электростанции GW Ranch в округе Пекос (Pecos County, Техас) на территории площадью более 3,2 тыс. га, где также разместятся аккумуляторные энергохранилища. Вся энергия пойдёт исключительно на питание ИИ ЦОД гиперскейл-класса, сообщает Datacenter Dynamics. В компании подчёркивают, что проект будет изолирован от энергосети штата. Это позволит ускорить развёртывание ИИ ЦОД без ущерба надёжности энергоснабжения.

К 2028 году Pacifico намерена довести выработку до 1 ГВт, а к 2030 году выйти на проектную мощность в 5 ГВт. Мощность аккумуляторного хранилища составит 1,8 ГВт — его модульные системы будут внедряться поэтапно. Компания находится в процессе получения разрешений от техасского природоохранного регулятора Texas Commission on Environmental Quality. По её мнению, проект соответствует требованиям в области защиты окружающей среды. Топливо будет поставляться с месторождений Пермского нефтегазового бассейна США (Permian Basin), одного из крупнейших источников природного газа в стране.

По данным Управления энергетической информации США (EIA), в 2024 году добыча природного газа в Пермском бассейне выросла на 12 % год к году, составив 22 % от общего объёма продаж природного газа в стране. Большие объёмы добычи и благоприятная нормативная база в Техасе побудили отдельных операторов ЦОД заняться развитием электростанций для обеспечения своих объектов энергией в обход основных электросетей. Занимающиеся добычей природного газа в Пермском бассейне компании также позиционируют себя в качестве поставщиков для сектора ЦОД.

 Источник изображения: Chris LeBoutillier/unsplash.com

Источник изображения: Chris LeBoutillier/unsplash.com

Одобрение регуляторов получил и ещё один крупный проект — власти Луизианы разрешили Entergy постройку трёх газовых электростанций для питания крупнейшего ИИ ЦОД Meta Hyperion, который после полного завершения строительства потребует до 5 ГВт. Для него придётся построить отдельную ЛЭП. Новые электростанции будут поставлять до 2,3 ГВт, ещё 1,5 ГВт планируется получить от проектов солнечной энергетики. Часть расходов по созданию новых объектов Meta возьмёт на себя.

Местные регуляторы быстро одобрили проект, поскольку Entergy намекнула, что в случае задержек Meta может перенсти проект в другой штат. Некоторые эксперты опасаются, что расходы на строительство лягут на плечи обычных потребителей, а электростанции поставят под угрозу здоровье местных жителей (xAI уже столкнулась с такими претензиями) и состояние окружающей среды. А сам ЦОД может привести к дефициту питьевой воды.

Постоянный URL: https://servernews.kz/1128077
22.08.2025 [13:30], Алексей Разин

NVIDIA поможет японцам создать один из мощнейших суперкомпьютеров мира FugakuNEXT

В начале этого десятилетия созданный в Японии суперкомпьютер Fugaku пару лет удерживался на верхней строчке в рейтинге мощнейших систем мира TOP500, он и сейчас занимает в нём седьмое место. В попытке технологического реванша японский исследовательский институт RIKEN доверился компании NVIDIA, которая поможет Fujitsu создать суперкомпьютер Fugaku NEXT.

Помимо Arm-процессоров Fujitsu MONAKA-X, в основу нового японского суперкомпьютера лягут и ускорители NVIDIA, хотя изначально планировалось обойтись без них. NVIDIA будет принимать непосредственное участие в интеграции своих компонентов в суперкомпьютерную систему, создаваемую японскими партнёрами.

По меньшей мере, скоростные интерфейсы, которыми располагает NVIDIA, пригодятся для обеспечения быстрого канала передачи информации между CPU и ускорителями. Сама NVIDIA обтекаемо говорит, что для этого можно задействовать шину NVLink Fusion. С ускорителями AMD, по-видимому, эти процессоры будут общаться более традиционно, т.е. по шине PCIe.

 Источник изображений: Fujitsu

Источник изображений: Fujitsu

Кроме того, NVIDIA собирается применить в составе данной системы передовые типы памяти. Применяемые при создании FugakuNEXT решения, по мнению представителей NVIDIA, смогут стать типовыми для всей отрасли в дальнейшем. Подчёркивается, что будущая платформа станет не просто техническим апгрейдом, а инвестицией в будущее страны.

Сама архитектура системы не уточняется, поэтому сложно судить, насколько активно японские разработчики будут использовать ускорители NVIDIA, и к какому поколению они будут относиться. Создатели ставят перед собой амбициозные цели — FugakuNEXT должна стать первой системой «зетта-масштаба». Своего предшественника она должна превзойти более чем в пять раз, обеспечив быстродействие на уровне 600 Эфлопс (FP8).

На уровне приложений прирос быстродействия может быть стократным, отмечают создатели. Новый суперкомпьютер сможет применяться для обучения больших языковых моделей. Впрочем, в строй он будет введён лишь к 2030 году, а Fujitsu ещё только предстоит выпустить свои процессоры MONAKA-X для этой системы.

Постоянный URL: https://servernews.kz/1128079
22.08.2025 [11:12], Руслан Авдеев

Meta✴ потратит $10 млрд на ИИ-инфраструктуру в Google Cloud

Meta намерена потратить более $10 млрд на облачные сервисы Google в течение шести лет, сообщает CNBC со ссылкой на The Information. По словам одного из источников, сделка преимущественно связана с арендой ИИ-инфраструктуры. По данным Reuters, Meta будет использовать серверы Google Cloud, её хранилища данных, сетевые и иные сервисы.

Google путается угнаться за более крупными облачными конкурентами вроде AWS и Microsoft Azure. Ранее в этом году она заключила соглашение с OpenAI, которая ранее сильно зависела от Azure, но стала более свободна в выборе облачных партнёров. В июле Alphabet объявила, что подразделение Google Cloud во II квартале принесло $2,83 млрд операционной прибыли за подписки на ПО и инфраструктуру. В то же время выручка в тот же период составила $13,6 млрд, на 32 % больше, чем выручка компании в целом (13,8 %).

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

В прошлом месяце в отчёте о доходах Meta заявила, что общие расходы в 2025 году составят $114–$118 млрд. Компания активно вкладывает средства ИИ-стартапы, собственные ИИ-модели Llama и иные ИИ-сервисы в своём портфолио услуг. Глава Meta Марк Цукерберг (Mark Zuckerberg) заявил, что компания потратит «сотни миллиардов» долларов на создание огромных ИИ ЦОД. Также компания увеличила минимальную сумму запланированных капитальных затрат на $2 млрд., по итогам года они составят от $66 до $72 млрд.

Примечательно, что Google и Meta активно конкурируют на рынке онлайн-рекламы. Тем не менее, Meta нужна буквально вся доступная облачная инфраструктура, до которой она сможет дотянуться, в том числе AWS и Microsoft. Также Meta ищет внешних партнёров для финансирования своих запросов на инфраструктуру для ИИ-проектов. Ранее в этом месяце были раскрыты данные, согласно которым она намерена продать активы своих дата-центров на сумму $2 млрд.

Постоянный URL: https://servernews.kz/1128064
22.08.2025 [10:09], Руслан Авдеев

От офиса до сборочных линий и складов: Advantech вложит $96,5 млн в новый кампус в США

Тайваньская Advantech, занимающаяся выпуском коммерческих и индустриальных вычислительных платформ, направит $96,5 млн на строительство новой штаб-квартиры в Тастине (Tustin, Калифорния) для расширения деловой активности компании в Северной Америке. Завершение строительства запланировано на III квартал 2026 года. Инициатива, как ожидается, поможет довести выручку в регионе до $1,5 млрд и более, сообщает DigiTimes.

В новом кампусе компания разместит офисные помещения, сборочные линии, склады, выставочные и конференц-залы. Также там найдётся место для зон постпродажного ремонта. Это часть стратегии Advantech по укреплению локальных возможностей сборки и обслуживания оборудования, а также расширению присутствия на североамериканском рынке, на который в 2024 году приходилось более 38 % мирового рынка промышленных периферийных устройств, оцениваемого в $21,29 млрд.

Эксперты ожидают, что сектор продуктов для периферийных вычислений компании Advantech будет расти приблизительно на 13,4 % в год до 2030 года благодаря развитию соответствующего рынка и ИИ-приложений. Компания намерена укреплять взаимодействие с основными клиентами в регионе и расширять сферу применения своих технологий.

 Источник изображения: Suyash Mahar/unsplash.com

Источник изображения: Suyash Mahar/unsplash.com

Хотя у компании имеются определённые трудности вроде новых пошлин и «оптимизации складских запасов» клиентами, компания продемонстрировала значительный рост на ключевом для себя рынке: её выручка в Северной Америке в I квартале 2025 года выросла на 23% год к году, а высокие темпы роста (свыше 20 %) сохранялись в течение всего I полугодия.

Компания сотрудничает с отраслевыми партнёрами, включая NVIDIA, ADATA и др. для продвижения инновационных ИИ-решений в промышленности. По словам Advantech, искусственный интеллект и периферийные вычисления играют ключевую роль в цифровой трансформации производственной сферы. Компания намерена продемонстрировать практические шаги по внедрению новых решений. Расширение бизнеса и акцент на передовых технологиях отражают стратегию Advantech по поддержанию долгосрочного роста на североамериканском рынке.

Некоторые тайваньские компании идут более извилистым путём. Foxconn продала завод по производству электромобилей в США под давлением ряда факторов компании SoftBank, а теперь сама же займётся там в рамках нового партнёрства выпуском ИИ-оборудования для проекта Stargate.

Постоянный URL: https://servernews.kz/1128059
22.08.2025 [09:12], Сергей Карасёв

Kioxia создала флеш-модуль вместимостью 5 Тбайт со скоростью передачи данных до 64 Гбайт/с

Компания Kioxia сообщила о разработке прототипа флеш-модуля (аналога SSD), который сочетает в себе большую вместимость и высокую пропускную способность. Изделие создано в рамках проекта, поддерживаемого японской Организацией по развитию новых энергетических и промышленных технологий (NEDO).

Модуль способен хранить 5 Тбайт информации. При этом скорость передачи данных теоретически может составлять до 64 Гбайт/с. Для достижения таких показателей Kioxia разработала новую архитектуру, основанную на последовательном соединении микросхем флеш-памяти.

 Источник изображения: Kioxia

Источник изображения: Kioxia

В составе изделия каждый флеш-чип подключён к отдельному контроллеру. Благодаря такой каскадной конфигурации пропускная способность не снижается даже при увеличении количества микросхем флеш-памяти. Благодаря последовательному соединению контроллеров удалось добиться снижения энергопотребления и улучшения целостности сигнала. Задействована модуляция PAM4. Скорость передачи информации достигает 128 Гбит/с на контроллер.

В прототипе применяется интерфейс PCIe 6.0 х8. Для каждого контроллера обеспечивается снижение задержки чтения путём предварительной выборки данных с использованием внутреннего кеша. Специальные механизмы обработки сигналов позволяют достичь скорости обмена данными между контроллером и подключенным к нему флеш-чипом в 4 Гбит/с. Общее энергопотребление модуля составляет менее 40 Вт. Ожидается, что новинка найдёт применение в таких сферах, как интернет вещей, периферийные ИИ-вычисления, анализ больших данных и пр.

Постоянный URL: https://servernews.kz/1128052

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus