Материалы по тегу: ии

17.08.2025 [18:08], Руслан Авдеев

Google потратит $9 млрд на развитие облачной и ИИ-инфраструктуры в Оклахоме — часть пойдёт на обучение электриков

Компания Google взяла обязательство вложить $9 млрд в расширение собственной облачной и ИИ-инфраструктуры на территории штата Оклахома (США). Инвестиции направят на развитие кампуса ЦОД в Стиллуотере (Stillwater) и расширение уже имеющегося объекта в Прайоре (Prior), сообщает Datacenter Dynamics. Часть выделенных средств будет потрачена на программы образования и развития персонала.

В марте 2025 года стало известно, что Google подала заявку на строительство кампуса ЦОД в Стиллоутере. Тогда было объявлено, что на него потратят $3 млрд, а площадь кампуса составит более 160 га. Подробных данных о кампусе нет, но согласно проекту плана экономического развития от августа 2024 года, предполагается построить до шести зданий, каждое площадью почти 29 тыс. м2. На каждом этапе строительства предполагается строить по одному ЦОД. Объект в Прайоре Google анонсировала ещё в 2007 году, запуск состоялся в 2011-м. С тех пор дата-центр регулярно расширялся.

Университет Оклахомы (University of Oklahoma) и Университет штата Оклахома (Oklahoma State University) готовы участвовать в инициативе Google AI for Education Accelerator. В её рамках можно будет получить сертификаты Google Career Certificates, а также доступ к бесплатным курсам обучения ИИ-навыкам. Также Google финансирует в Оклахоме национальную программу обучения, созданную для подготовки квалифицированных электриков — Electrical Training Alliance.

 Источник изображения: Gerson Repreza/unsplash.com

Источник изображения: Gerson Repreza/unsplash.com

Ранее Оклахома никогда не считалась крупным рынком ЦОД и сопутствующих технологий. Среди недавно анонсировавших проекты ЦОД в Оклахоме — компании Cerebras, Damac и CoreWeave с Core Scientific. По слухам, кампус площадью около 138 га готовит и Meta. Также есть данные, что в мае подана заявка на строительство кампуса площадью более 200 га в Талсе (Tulsa), но что за компания стоит за проектом, не разглашается.

Постоянный URL: http://servernews.kz/1127775
17.08.2025 [14:15], Сергей Карасёв

Inspur разработала СЖО для мегаваттных стоек с 3-кВт ИИ-ускорителями

Китайская компания Inspur Information представила передовую систему двухфазного жидкостного охлаждения для ИИ-платформ следующего поколения, таких как суперускоритель Metabrain SD200. Решение может использоваться для отвода тепла от серверных стоек мегаваттного класса.

Inspur отмечает, что из-за стремительного развития ИИ наблюдается тенденция к повышению плотности вычислений. Это приводит к быстрому увеличению энергопотребления стоек с серверным оборудованием. Различные компании, такие как Aligned, JetCool и CyrusOne, разрабатывают решения для стоек мощностью 300 кВт, тогда как крупные ЦОД-операторы и гиперскейлеры готовятся к появлению мегаваттных установок. В таких условиях возможностей стандартных систем охлаждения становится недостаточно.

 Источник изображения: Inspur

Источник изображения: Inspur

Двухфазная СЖО Inspur способна охлаждать кристаллы мощностью более 3000 Вт, тогда как показатель теплосъёма превышает 250 Вт на квадратный 1 см2. Благодаря изоляции хладагента предотвращается коррозия, что сводит к минимуму риск коротких замыканий, снижает износ и отказы компонентов, говорит компания. Ключевыми преимуществами новой СЖО названы надёжность и долговечность, отсутствие утечек, простота эксплуатации, безопасная работа IT-оборудования, а также уменьшение общей стоимости владения по сравнению с другими аналогичными решениями.

При разработке системы специалистам Inspur Information удалось преодолеть узкие места управления температурой и давлением фазового перехода, а также решить проблемы дисбаланса потока и перегрева во время скачков нагрузки: утверждается, что в конфигурации с 200 чипами отклонение распределения потока составляет менее 10 %, а разница температур — менее 2 °C. Применяется специально разработанный хладагент низкого давления, который безопасен для окружающей среды. Несмотря на отсутствие риска утечки, рабочее давление системы составляет менее 1 МПа.

Постоянный URL: http://servernews.kz/1127769
16.08.2025 [15:16], Сергей Карасёв

Inspur представила суперускоритель Metabrain SD200 для ИИ-моделей с триллионами параметров

Китайская компания Inspur создала суперускоритель Metabrain SD200 для наиболее ресурсоёмких задач ИИ. Система, как утверждается, может работать с моделями, насчитывающими более 1 трлн параметров.

Платформа Metabrain SD200 объединяет 64 карты в единый суперузел с унифицированной памятью. В основу положены открытая архитектура 3D Mesh и проприетарные коммутаторы Open Fabric Switch. Иными словами, ускорители на базе GPU, распределённые по разным серверам, объединяются посредством высокоскоростного интерконнекта в единый домен.

Суперускоритель предоставляет доступ к 4 Тбайт VRAM и 64 Тбайт основной RAM. Благодаря этому возможен одновременный запуск четырёх китайских ИИ-моделей с открытым исходным кодом, включая DeepSeek R1 и Kimi K2. Кроме того, поддерживается совместная работа нескольких ИИ-агентов в режиме реального времени.

 Источник изображения: Inspur

Источник изображения: Inspur

Для Metabrain SD200 заявлена низкая задержка при передаче данных, которая исчисляется «сотнями наносекунд». В распространённых сценариях инференса, предполагающих обработку небольших пакетов данных, по величине задержки система превосходит распространённые отраслевые решения.

В составе новой платформы задействованы средства оптимизации. В частности, инструмент Smart Fabric Manager автоматически формирует оптимальные маршруты данных на основе характеристик нагрузки. Metabrain SD200 совместим с распространёнными фреймворками, такими как PyTorch, vllm и SGLang: благодаря этому возможен быстрый перенос существующих моделей и ИИ-агентов без необходимости переписывать программный код с нуля. Таким образом, значительно снижается стоимость миграции.

В целом, реализованная технология удалённого vGPU позволяет ускорителям, распределённым по разным серверам, взаимодействовать столь же эффективно, как если бы они находились на одном хосте. При этом достигается восьмикратное расширение адресного пространства, что обеспечивает полную загрузку ресурсов и эффективную работу даже при использовании ИИ-моделей с триллионами параметров.

Постоянный URL: http://servernews.kz/1127746
15.08.2025 [18:15], Руслан Авдеев

Саудовская center3 потратит $10 млрд на ЦОД общей мощностью 1 ГВт

Компания center3 из Саудовской Аравии, принадлежащая STC (Saudi Telecom) и занимающаяся строительством дата-центров, к 2030 году намерена довести мощность своих ЦОД до 1 ГВт — в дополнение к уже потраченным на дата-центры $3 млрд будут инвестированы ещё $10 млрд, сообщает Datacenter Dynamics.

Center3, основанная в 2022 году, является дочерней структурой STC. Компания строит и эксплуатирует в Саудовской Аравии за её пределами, в том числе в Бахрейне, около 20 дата-центров. Согласно её планам, общая установленная мощность к 2027 году должна достичь 300 МВт. Подробности о том, как именно компания намерена инвестировать $10 млрд и где именно разместятся новые дата-центры, пока не разглашаются.

 Источник изображения:  SALEH/unsplash.com

Источник изображения: SALEH/unsplash.com

По словам генерального директора center3 Фахада Аль-Хаджери (Fahad AlHajeri), речь идёт не просто о расширении портфолио дата-центров, но и о создании условий для развития цифровой экономики будущего. Как заявил глава компании, выбор мощности в 1 ГВт закладывает основу для ИИ-проектов, облачных вычислений и выполнения рабочих нагрузок гиперскейл-уровня. Это гарантирует Саудовской Аравии и всему региону создание инфраструктуры мирового класса, которая позволит пробиться в мировые лидеры в ходе следующей волны глобальных инноваций.

В 2024 году компания расширила кампус ЦОД Khurais Riyadh в Эр-Рияде, увеличив его мощность на 9,6 МВт. В августе 2024 года Oracle объявила о размещении своего облачного региона в дата-центре center3. В ЦОД center3 размещается и облачный регион Huawei. В октябре center3 объявила о партнёрстве с саудовским строителем дата-центров DataVolt.

Постоянный URL: http://servernews.kz/1127708
15.08.2025 [17:41], Сергей Карасёв

ИИ-стартап Rivos, успевший посудиться с Apple, ищет $500 млн, чтобы побороться с NVIDIA

Американский стартап Rivos, по сообщению ресурса The Information, намерен получить финансирование в объеме до $500 млн, что увеличит его рыночную стоимость до $2 млрд. Средства в случае их привлечения помогут ускорить вывод на рынок ИИ-ускорителей нового типа, которые, как ожидается, смогут составить конкуренцию изделиям NVIDIA.

Фирма Rivos, базирующаяся в Санта-Кларе (Калифорния, США), основана в 2021 году. Она занимается проектированием чипов на открытой архитектуре RISC-V: отсюда и название стартапа — RISC-V Open Source. Создаваемые изделия предназначены для приложений ИИ и больших языковых моделей (LLM). Штат Rivos насчитывает приблизительно 450 сотрудников.

 Источник изображения: unsplash.com / Steve Johnson

Источник изображения: unsplash.com / Steve Johnson

Компания уже завершила разработку первого RISC-V-ускорителя: чип передан в опытное производство на предприятие TSMC. Осведомлённые источники утверждают, что массовый выпуск новинки может быть организован в 2026-м. Rivos якобы планирует сотрудничать с некой «крупной публичной компанией по созданию микрочипов» для разработки будущих ускорителей. Кроме того, стартап близок к заключению сделки по поставкам своей продукции неназванному партнёру.

На сегодняшний день компания привлекла около $370 млн финансирования. В частности, $250 млн было получено в апреле 2024 года в ходе инвестиционного раунда Series-A3, в котором приняли участие Matrix Capital Management, Intel Capital, Dell Technologies Capital, MediaTek и др.

В 2022-м Rivos столкнулся с судебным иском со стороны Apple. Компания из Купертино обвинила стартап в том, что он нанял на работу ряд бывших инженеров Apple, а затем использовал полученную от них конфиденциальную информацию для разработки собственных изделий. Rivos отвергла обвинения и подала встречный иск. Однако, как сообщалось, в ходе разбирательства компания уволила около 6 % своих сотрудников и отложила раунд финансирования Series A. Стороны окончательно урегулировали претензии в феврале 2024 года.

Постоянный URL: http://servernews.kz/1127711
15.08.2025 [15:15], Руслан Авдеев

Расходы гиперскейлеров на дата-центры превысили ВВП целых стран

Уровень современных инвестиций в новую инфраструктуру операторами дата-центров оказался сопоставим с ВВП некоторых государств, причём не самых маленьких. Так, в Omdia подсчитали, что капиталовложения Amazon в ЦОД за год сейчас превышают $100 млрд — это сопоставимо с ВВП Коста-Рики и значительно больше ВВП Люксембурга или Литвы, сообщает The Register.

Схожим образом ситуация обстоит и с другими игроками облачного рынка. Так, капитальные вложения Google составляют $82 млрд — выше объёма экономики Словении, а в случае с Microsoft речь идёт об $75 млрд, это выше ВВП Уганды. На долю Meta приходится $69 млрд — больше, чем ВВП Бахрейна.

По оценкам экспертов, капитальные затраты на ЦОД превысят в 2025 году $657 млрд. Это означает, что расходы выросли почти вдвое с 2023 года, когда речь шла об $330 млрд. Во многом такие расходы объясняются стремлением гиперскейлеров наращивать мощности для развития ИИ в надежде на то, что когда-то это окупится. Например, xAI, даже не будучи гиперскейлером, тратит по $1 млрд в месяц, рассчитывая на будущую отдачу.

Согласно отчёту McKinsey & Company, многие топ-менеджеры скептически относятся к предположениям, что огромные сумму, расходуемые на ИИ, обеспечат соизмеримую отдачу в ближайшем будущем. Например, в отчёте за II квартал 2025 года Meta отметила, что прибыль приносят традиционные модели машинного обучения — основа её рекомендательных систем, а не проекты, связанные с генеративным ИИ. Впрочем, облачные операторы с готовностью предлагают свои сервисы клиентам, желающим получить больше ИИ-инфраструктуры.

 Источник изображения: Samuel Regan-Asante/unsplash.com

Источник изображения: Samuel Regan-Asante/unsplash.com

В последнем обзоре рынков облаков и ЦОД Omdia отмечает, что в ближайшей перспективе вычислительные ИИ-ресурсы будут в дефиците. Разработка более масштабных и «прожорливых» моделей вроде недавно представленной GPT-5, стимулирует спрос на вычислительные мощности. В то же время широкое внедрение ИИ стимулирует спрос на инференс. По данным Omdia, значительная часть населения развитых стран так или иначе использует ИИ. Только ChatGPT пользуется более 700 млн человек, а ежедневно — более 120 млн.

Анализируя инвестиции в ЦОД, Omdia отмечает, что несмотря на то, что IT-оборудование останется самой крупной статьёй расходов на ЦОД в ближайшие годы, затраты на физическую инфраструктуру (электроснабжение, распределение энергии и системы охлаждения) будут расти быстрее. Это связано с растущим спросом на мощные серверы. Плотность вычислений в стойках сегодня растёт экспоненциально, это требует «значительных и постоянных инноваций» в сфере систем охлаждения и электроснабжения.

В то же время растущие потребности всей этой IT-инфраструктуры в энергии, вероятно, вынудит операторов инвестировать в локальные генерирующие мощности и «микросети как услугу», что отчасти происходит уже сегодня, и даже в крупных масштабах. В Omdia ожидают, что темпы строительства дата-центров увеличатся, а мощность крупнейших площадок вырастет, появятся и объекты от гигаватта в США, Индии и других странах.

Крупные проекты уже находятся в стадии реализации. Meta сообщила о нескольких кампусах на несколько гигаватт, которые она намерена запускать с 2026 года. В недавнем отчёте Deloitte Insights утверждается, что мощность некоторых площадок, находящиеся на ранних стадиях планирования, может превысить 5 ГВт.

Постоянный URL: http://servernews.kz/1127700
14.08.2025 [17:29], Руслан Авдеев

Умнее, но прожорливее: GPT-5 потребляет до 20 раз больше энергии, чем предыдущие модели

Недавно представленной модели OpenAI GPT-5 в сравнении с ChatGPT образца середины 2023 года для обработки идентичного запроса потребуется до 20 раз больше энергии, сообщает The Guardian. Официальную информацию об энергопотреблении OpenAI, как и большинство её конкурентов, не публикует. В июне 2025 года глава компании Сэм Альтман (Sam Altman) сообщил, что речь идёт о 0,34 Вт∙ч и 0,00032176 л на запрос, но о какой именно модели идёт речь, не сообщалось. Документальные подтверждения этих данных тоже отсутствуют.

По словам представителя Университета штата Иллинойс (University of Illinois), GPT-5 будет потреблять намного больше энергии в сравнении с моделями-предшественницами как при обучении, так и при инференсе. Более того, в день премьеры GPT-5 исследователи из Университета Род-Айленда (University of Rhode Island) выяснили, что модель может потреблять до 40 Вт∙ч для генерации ответа средней длины из приблизительно 1 тыс. токенов. Для сравнения, в 2023 году на обработку одного запроса уходило порядка 2 Вт∙ч.

Сейчас среднее потребление GPT-5 составляет чуть более 18 Вт∙ч на запрос, что выше, чем у любых других сравнивавшихся учёными моделей, за исключением апрельской версии «рассуждающей» o3 и DeepSeek R1. Предыдущая модель GPT-4o потребляет значительно меньше. 18 Вт∙ч эквивалентны 18 минутам работы лампочки накаливания. С учётом того, что ChatGPT обрабатывает около 2,5 млрд запросов ежедневно, за сутки тратится энергии, достаточной для снабжения 1,5 млн домохозяйств в США.

 Источник изображения: Dean Brierley / Unsplash

Источник изображения: Dean Brierley / Unsplash

В целом учёные не удивлены, поскольку GPT-5 в разы производительнее своих предшественниц. Летом 2025 года ИИ-стартап Mistral опубликовал данные, в которых выявлена «сильная корреляция» между масштабом модели и её энергопотреблением. По её данным, GPT-5 использует на порядок больше ресурсов, чем GPT-3. При этом многие предполагают, что даже GPT-4 в 10 раз больше GPT-3.

Впрочем, есть и дополнительные факторы, влияющие на потребление ресурсов. Так, GPT-5 использует более эффективное оборудование и новую, более экономичную экспертную архитектуру с оптимизацией расхода ресурсов на ответы, что в совокупности должно снизить энергопотребление. С другой стороны, в случае с GPT-5 речь идёт о «рассуждающей» модели, способной работать с видео и изображениями, поэтому реальное потребление ресурсов, вероятно, будет очень высоким. Особенно в случае длительных рассуждений.

 Источник изображения: Tim King / Unsplash

Источник изображения: Tim King / Unsplash

Чтобы посчитать энергопотребление, группа из Университета Род-Айленда умножила среднее время, необходимое модели для ответа на запрос на среднюю мощность, потребляемую моделью в ходе работы. Важно отметить, что это только примерные оценки, поскольку достоверную информацию об использовании моделями конкретных чипов и распределении запросов найти очень трудно. Озвученная Альтманом цифра в 0,34 Вт∙ч практически совпадает с данными, рассчитанными для GPT-4o.

Учёные подчёркивают необходимость большей прозрачности со стороны ИИ-бизнесов по мере выпуска всё более производительных моделей. В университете считают, что OpenAI и её конкуренты должны публично раскрыть информацию о воздействии GPT-5 на окружающую среду. Ещё в 2023 году сообщалось, что на обучение модели уровня GPT-3 требуется около 700 тыс. л воды, а на диалог из 20-50 вопросов в ChatGPT уходило около 500 мл. В 2024 году сообщалось, что на генерацию ста слов у GPT-4 уходит до трёх бутылок воды.

Постоянный URL: http://servernews.kz/1127619
13.08.2025 [14:39], Руслан Авдеев

Нужно больше меди: рост дата-центров усугубит нехватку и так дефицитного металла

По мнению экспертов BloombergNEF (BNEF), устойчивый рост спроса со стороны дата-центров ускорит потенциальное возникновение существенного дефицита на мировом рынке меди уже во второй половине текущего десятилетия. При этом к 2035 году дефицит, вероятно, достигнет 6 млн т.

Аналитики BNEF заявили, что для строительства ИИ ЦОД требуется всё больше меди, при этом поставки металла, являющегося ключевым компонентом в самых разных продуктах, от сантехники до силовых кабелей и электромобилей, ограничены из-за многолетнего недофинансирования. Как следует из отчёта, около 6 % капитальных затрат ЦОД может приходиться именно на медь. Цена этого металла, к 2028 году, вероятно, достигнет пика и составит $13,5 тыс. за тонну.

По мнению экспертов, расширение мощностей ИИ ЦОД усиливает давление на рынок, на котором и без того сложилась напряжённая ситуация. Проблема ещё и в том, что использование меди в секторах вроде передачи электроэнергии и ветроэнергетики должно удвоиться к 2035 году, а предложение на рынке растёт медленнее, чем необходимо.

 Источник изображения: Joanna Kosinska/unsplash.com

Источник изображения: Joanna Kosinska/unsplash.com

Согласно докладу BloombergNEF, спрос на медь (косвенно со стороны ЦОД) в течение следующего десятилетия будет составлять 400 тыс. т ежегодно. Пик на уровне 572 тыс. т будет достигнут в 2028 году. В течение следующего десятилетия общий объём использования меди в ЦОД, вероятно, превысит 4,3 млн т. В то же время предложение к 2035 году достигнет 29 млн т — на 6 млн т меньше ожидаемого спроса.

В апреле 2024 года появилась информация, что рост ИИ и ЦОД увеличит потребление дорожающего металла на 1 млн т в 2030 году. В ноябре того же года эксперты заявили, что развитие генеративного ИИ всё больше зависит от доступности качественных данных, пресной воды, электроэнергии и, что немаловажно, чистой меди, рост дефицита которой прогнозировался уже тогда.

Постоянный URL: http://servernews.kz/1127561
13.08.2025 [13:24], Руслан Авдеев

Южнокорейский разработчик ИИ-чипов DeepX объединился с Baidu для выхода на рынок КНР

Южнокорейская DeepX, разрабатывающая ИИ-ускорители, заключила соглашение с китайским гиперскейлером Baidu. Компании намерены оптимизировать разрабатываемую Bailu ИИ-платформу Ernie LLM для оборудования DeepX, сообщает EE Times. В DeepX заявляют, что речь идёт о первом официальном сотрудничестве компании с одной из ключевых китайских ИИ-экосистем.

Интеграция ускорителей DeepX с моделями Baidu PaddlePaddle и Ernie позволят южнокорейской компании получить прямой доступ к одному из крупнейших сообществ разработчиков ИИ в Китае. Это ускорит выход стартапа на китайский рынок и обеспечит надёжную проверку его технологий одним из мировых лидеров в сфере искусственного интеллекта.

Недавно компания привлекла Morgan Stanley для управления очередным раундом финансирвоания. В прошлом году в ходе раунда финансирования серии C компания привлекла порядка $80 млн, теперь, по данным Bloomberg, она намерена получить значительно больше — незадолго до выхода на IPO в 2027 году. Компания считает себя конкурентом NVIDIA в некоторых секторах.

PaddlePaddle представляет собой открытую платформу для глубокого обучения, разработанную компанией Baidu. Она является ключевым фреймворком для ИИ в Китае и представляет собой аналог западным решениям вроде PyTorch или Jax. PaddlePaddle включает готовые предобученные модели, инструменты для разработки и оптимизации ИИ-приложений.

В экосистеме PaddlePaddle более 10 млн разработчиков и 200 тыс. предприятий, которые работают над сценариями использования ИИ для обработки зрения, речи и естественного языка. Также предлагается «бесшовная интеграция» с китайскими облачными платформами.

 Источник изображения: DeepX

Источник изображения: DeepX

Китай — один из крупнейших быстрорастущих рынков ИИ в мире, особенно в сфере промышленного ИИ, робототехники и умных устройств. Выход на китайский рынок при поддержке Baidu даёт DeepX возможность быстро масштабировать внедрение. Поэтому изначально партнёрство в рамках технологической системы PaddlePaddle будет сосредоточено на промышленном ИИ. Планируется, что компании станут совместно разрабатывать промышленные продукты, обеспечив совместимость технологий.

Сообщается, что компании сосредоточатся на промышленных приложениях для распознавания символов (OCR), дронов, робототехники, также изучаются и варианты инновационного использования — в умных городах, автопромышленности и потребительской электронике. Сотрудничество закладывает основу для широкого внедрения ИИ в секторах, где энергоэффективность имеет критически важное значение.

Перед подписанием соглашения DeepX продемонстрировала работу ускорителя DX-M1 с моделями Baidu — PP-OCR пятого поколения и VLM. Теперь команды Baidu, включая PaddlePaddle и Ernie, будут адаптировать свои модели для чипов DX-M1 и будущего DX-M2. Прототипы DX-M2, выполненные по 2-нм техпроцессу Samsung, собираются использовать для демонстрации крупной модели ERNIE-4.5-VL-28B-A3B.

DeepX также собрала 10 моделей на базе OpenVino для DX-M1, чтобы их можно было использовать совместно с экосистемой PaddlePaddle. По имеющимся данным, существующие клиенты DeepX в Китае работают в сфере промышленных ПК, робототехники и модулей интеллектуальных камер. Благодаря экосистеме Baidu предполагается ускорить коммерческое внедрение, начиная с текущего года.

Постоянный URL: http://servernews.kz/1127543
12.08.2025 [16:32], Сергей Карасёв

Supermicro представила 4U-сервер на базе NVIDIA HGX B200 с СЖО

Компания Supermicro анонсировала GPU-сервер SYS-422GS-NBRT-LCC для ресурсоёмких нагрузок, включая задачи ИИ, построенный на аппаратной платформе Intel Granite Rapids. Устройство оборудовано системой прямого жидкостного охлаждения DLC-2.

Новинка выполнена в форм-факторе 4U. Допускается установка двух процессоров Xeon 6700P с TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти: максимальный объём ОЗУ составляет 4 Тбайт в случае DDR5-6400 ECC и 8 Тбайт при использовании DDR5-5200 ECC. Сервер располагает восемью слотами PCIe 5.0 x16 для низкопрофильных карт расширения и двумя разъёмами PCIe 5.0 x16 для карт полной высоты и половинной длины (FHHL).

Сервер оснащён ИИ-ускорителями NVIDIA HGX B200 поколения Blackwell в конфигурации 8 × SXM. Предусмотрены восемь фронтальных отсеков для накопителей E1.S с поддержкой горячей замены, а также два отсека для M.2 NVMe SSD. Имеются два сетевых порта 10GbE (RJ45) на основе контроллера Intel X710-AT2.

Система может быть укомплектована восемью однопортовыми адаптерами NVIDIA ConnectX-7 NIC или NVIDIA BlueField-3 SuperNIC, а также двумя двухпортовыми DPU NVIDIA BlueField-3. Реализованы интерфейсы Mini-DP и D-Sub. Питание обеспечивают четыре блока мощностью 6600 Вт с сертификатом 80 PLUS Titanium. Диапазон рабочих температур — от +10 до +35 °C. Помимо системы DLC-2, установлены шесть вентиляторов диаметром 80 мм. Габариты сервера составляют 174 × 448 × 991,4 мм, масса — 107 кг.

 Источник изображения: Supermicro

Источник изображения: Supermicro

Постоянный URL: http://servernews.kz/1127505

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus