Материалы по тегу: hardware

27.07.2024 [10:30], Сергей Карасёв

Аргоннская национальная лаборатория намерена создать СХД ёмкостью 400 Пбайт за $20 млн

Аргоннская национальная лаборатория (ANL) Министерства энергетики США (DOE) обнародовала запрос на создание нового кластера хранения данных для своего парка суперкомпьютеров. Как сообщает ресурс Datacenter Dynamics, реализация проекта может обойтись в $15–$20 млн.

Речь идёт о создании СХД, которая обеспечит ёмкость и производительность, необходимые для поддержания работы действующих НРС-комплексов, а также будущих суперкомпьютеров. Отмечается, что на площадке Argonne Leadership Computing Facility (ALCF) развёрнуты несколько высокопроизводительных параллельных файловых систем для обработки данных, генерируемых исследователями и инженерами. Это, в частности две системы Luster вместимостью 100 Пбайт с пропускной способностью 650 Гбайт/с. Обе они используют интерконнект Infiniband HDR.

 Источник изображения: DOE

Источник изображения: DOE

Новая СХД будет обладать ёмкостью на уровне 400 Пбайт. В число требований входят IOPS-производительность до 240 Мбит/с, пиковая пропускная способность в 6 Тбайт/с, совместимость с POSIX и возможность одновременного монтирования до 30 тыс. узлов. Поставщик должен обеспечивать поддержку в течение пяти лет.

Предполагается, что платформа будет использоваться суперкомпьютером Aurora, который в нынешнем рейтинге TOP500 занимает второе место с быстродействием 1,012 Эфлопс. Кроме того, доступ к СХД получит НРС-комплекс Polaris: его пиковая производительность составляет около 44 Пфлопс.

Проектируемая СХД должна обеспечивать «надёжность и масштабируемость, необходимые для следующего поколения HPC и ИИ». Поставку платформы исполнителю работ необходимо осуществить ко II или к IV кварталу 2025 года, если дополнительные полгода позволят внедрить новые технологии.

Постоянный URL: http://servernews.kz/1108582
26.07.2024 [09:50], Сергей Карасёв

Квартальные результаты SK hynix бьют рекорды на фоне бума ИИ

Компания SK hynix отрапортовала о работе во II четверти 2024 года. Выручка южнокорейского производителя чипов памяти составила ₩16,42 трлн (корейских вон), или приблизительно $11,86 млрд. Это является абсолютным рекордом. Для сравнения: годом ранее показатель равнялся ₩7,31 трлн, или $5,29 млрд. Таким образом, рост в годовом исчислении оказался на уровне 125 %.

SK hynix связывает резкое увеличение денежных поступлений с двумя факторами. Это, в частности, общее повышение цен на память DRAM и NAND. Кроме того, наблюдается растущий спрос на высокоскоростные изделия HBM на фоне бума ИИ и стремительного развития генеративных сервисов.

 Источник изображения: SK hynix

Источник изображения: SK hynix

Операционная прибыль SK hynix во II квартале 2024 года составила ₩5,47 трлн ($3,96 млрд), что является самым высоким показателем с III квартала 2018 года. Чистая прибыль зафиксирована на отметке ₩4,12 трлн ($2,97 млрд), тогда как годом ранее компания понесла чистые убытки в размере ₩2,99 трлн.

Продажи чипов HBM подскочили более чем на 80 % по сравнению с I четвертью 2024 года и более чем на 250 % по сравнению со II кварталом 2023-го. Вместе с тем продажи eSSD в квартальном исчислении поднялись примерно на 50 %. Компания отмечает, что средняя цена реализации продуктов NAND продолжает увеличиваться с IV квартала 2023 года.

SK hynix планирует укреплять позиции на рынке HBM. В частности, готовится массовое производство 12-слойных изделий HBM3E, образцы которых компания предоставила клиентам в III квартале прошлого года. Кроме того, во II половине 2024-го SK hynix планирует выпустить чипы DDR5 DRAM ёмкостью 32 Гбит для серверов и модули MCR DIMM для НРС-систем.

Постоянный URL: http://servernews.kz/1108522
26.07.2024 [00:04], Владимир Мироненко

Квартальная выручка Google Cloud впервые превысила $10 млрд, а на серверы Alphabet потратила почти $13 млрд

Холдинг Alphabet, материнская структура Google, опубликовал итоги работы во II квартале 2024 года, который завершился 30 июня. Результаты работы Alphabet превысили прогнозы аналитиков. Выручка холдинга составила $84,74 млрд, что на 14 % больше результата годичной давности, превысив при этом консенсус-прогноз аналитиков, опрошенных LSEG, равный $84,19 млрд.

Чистая прибыль Alphabet за II квартал равна $23,6 млрд, что больше на $5,2 млрд показателя за аналогичный период 2023 года, равного $18,4 млрд. Прибыль на разводнённую акцию достигла $1,89, превысив прошлогодний результат в $1,44 на акцию и средний прогноз аналитиков, опрошенных LSEG, в размере $1,84 на акцию.

 Источник изображения: Google Cloud

Источник изображения: Google Cloud

Как сообщается, в минувшем квартале выручка облачного подразделения Google Cloud впервые преодолела отметку $10 млрд, составив $10,35 млрд, что больше год к году на $2,32 млрд или 29 %. Также операционная прибыль Google Cloud впервые превысила за квартал рубеж в $1 млрд, составив $1,17 млрд, тогда как годом ранее этот показатель был равен $395 млн.

Гендиректор Google Сундар Пичаи (Sundar Pichai) и финансовый директор Рут Порат (Ruth Porat) отметили, что ИИ-инфраструктура Google и решения генеративного ИИ для облачных клиентов уже принесли холдингу «миллиарды» и используются более чем 2 млн разработчиков. По словам Рут, капитальные затраты Alphabet за II квартал в целом составили $13 млрд, при этом большая часть средств была инвестирована в технологическую инфраструктуру — в основном в серверы для ЦОД.

 Источник изображения: Google Cloud

Источник изображения: Google Cloud

Отвечая на вопрос аналитиков и инвесторов об оправданности столь больших инвестиций в инфраструктуру для ИИ, Пичаи ответил, что риск недостаточного инвестирования здесь значительно выше, чем риск чрезмерного инвестирования: «Даже в сценариях, когда окажется, что мы переинвестируем, нам ясно — это инфраструктура, которая нам очень полезна», — заверил аудиторию гендиректор Alphabet.

В минувшем квартале Google представила шестое поколение ИИ-ускорителя Trillium, который, по словам Пичаи, «обеспечивает почти пятикратное увеличение пиковой производительности на чип, при этом он на 67 % энергоэффективнее TPU v5e». Пичаи также отметил, что ускорители NVIDIA Blackwell появятся в Google Cloud в начале 2025 года.

Также в отчётном периоде Google заключила партнёрское соглашение с Oracle с целью совместного использования решения Google Cloud Cross-Cloud Interconnect, которое упростит клиентам запуск рабочих нагрузок общего назначения как в облаке Oracle, так и в облаке Google без платы за перенос из одного облака в другое. В сентябре компании планируют запустить проект Oracle Database@Google Cloud, в рамках которого Google разместит СУБД-инфраструкту в своих ЦОД.

Постоянный URL: http://servernews.kz/1108517
25.07.2024 [16:41], Руслан Авдеев

Omdia: спрос на готовые модульные дата-центры и микро-ЦОД вырос благодаря развитию рынка ИИ

Исследование компании Omdia показало, что рынок готовых модульных дата-центров (PMDC) и микро-ЦОД к 2027 году достигнет $11,7 млрд. По данным пресс-службы компании, пик спроса придется на 2023–2024 гг., причиной стремительного роста спроса станет бум ИИ-технологий.

Рынок готовых, заранее собранных на производстве ЦОД включает как отдельные, так и многомодульные конструкции, которые могут выполнять как единичные функции (энергоснабжение, охлаждение), так и составлять ЦОД целиком. В Omdia рассчитывают, что в 2027 году объём продаж PMDC составит $8,6 млрд.

Крупнейшей категорией считаются предсобранные модули питания, их сбыт растёт самыми быстрыми темпами — в сравнении со всеми другими модулями, продажи которых тоже отслеживаются Omdia. Основным фактором роста является то, что именно в таких модулях нуждаются как новые, так и действующие ЦОД, требующие увеличения энергетической ёмкости.

 Источник изображения: Omdia

Источник изображения: Omdia

Модульные микро-ЦОД (micro-DC) состоят или из одного или нескольких модулей, последние обычно поставляются уже в собранном состоянии. В Omdia прогнозируют, что их продажи составят в 2027 году $3,1 млрд. Такие объекты, по данным экспертов компании, подходят как облачным провайдерам, так и корпоративным клиентам. В Omdia утверждают, что подобные ЦОД на много стоек изначально использовались гиперскейлерами — предварительная сборка вдали от места установки ускоряла ввод в эксплуатацию на целевой территории. Подобные решения внедрялись как минимум с 2018 года.

Лидером на рынке PMDC является Huawei, за ней следуют Schneider Electric и Veritiv. В Северной Америке крупнейшими вендорами подобных решений являются Johnson Controls, Schneider Electric и M.C. Dean, в Западной Европе — Vertiv и Rittal, а Huawei — в Азии и Океании, а также на рынке Европы, Ближнего Востока и Африки (EMEA) в целом. Что касается рынка модульных микро-ЦОД, он гораздо более насыщеннее вендорами благодаря довольно низкому порогу вхождения. Впрочем, из здесь лидирует Huawei, ненамного от которой отстают Vertiv и DTCT.

В Omdia ожидают, что инновации в PMDC и micro-DC продолжатся. Акцент будет сделан на повышении энергетической плотности для того, чтобы обеспечить в новых ЦОД использование серверов с ресурсоёмким ИИ-оборудованием. В первую очередь ожидаются новые решения в сфере интеграции систем жидкостного охлаждения (СЖО) и аккумуляторов. В июне Omdia прогнозировала, что основной нагрузкой в ЦОД станут ИИ-приложения, которые подстегнут рост расходов на серверы.

Постоянный URL: http://servernews.kz/1108485
25.07.2024 [16:31], Руслан Авдеев

Blackstone намерена расширить свой портфель ЦОД, инвестировав в их развитие ещё $70 млрд

Занимающаяся управлением инвестициями компания Blackstone намерена вложить в развитие сети дата-центров $70 млрд. По данным Datacenter Dynamics, согласно последнему финансовому отчёту компании, объём её портфолио ЦОД, включая строящиеся объекты, уже достиг $55 млрд.

Глава Blackstone Стивен Шварцман (Stephen Schwarzman) сравнил последствия появления ИИ с эффектом от внедрения электрических лампочек. По его словам, хотя на разработку «коммерчески жизнеспособных» лампочек в своё время ушли годы, развитие электросетей в последующие десятилетия сопоставимо со строительством сети дата-центров для ИИ в наше время.

По прогнозам Шварцмана, в следующие пять лет в США инвестируют порядка $1 трлн в возведение и обслуживание новых ЦОД, ещё столько же будет потрачено за пределами страны. При этом потребность этих ЦОД в электричестве станет основным фактором 40-% роста спроса на электроэнергию в США в следующие десять лет. По этим причинам у компании откроются беспрецедентные возможности для инвестиций, так что Blackstone позиционирует себя как крупнейшего инвестора в ИИ-инфраструктуру.

 Источник изображения: Josue Isai Ramos Figueroa/unsplash.com

Источник изображения: Josue Isai Ramos Figueroa/unsplash.com

QTS — крупнейший бизнес в области ЦОД в портфеле Blackstone — нарастил мощности в семь раз после того, как Blackstone купила его в 2021 году за $10 млрд. Также в прошлом году Blackstone объявила, что совместно с QTS потратит ещё $8 млрд на ИИ ЦОД. Компания также инвестировала в ЦОД Vnet, Lumina CloudInfra, Copeland, Park Place Technologies и Winthrop Technologies, а также совместные бизнесы аналогичного профиля с COPT, Digital Realty и другими игроками.

Как заявил Шварцман, компания предоставит акционерный и заёмный капитал и другим бизнесам, связанным с ИИ-проектами. В частности, во II квартале Blackstone обязалась предоставить CoreWeave $4,5 млрд заёмных средств из необходимых $7,5 млрд, а теперь основное внимание уделяется удовлетворению потребностей сектора ЦОД в энергоснабжении.

В Blackstone подчёркивают, что благодаря масштабным возможностям в сфере инфраструктуры, недвижимости, частного кредитования и источников возобновляемой энергии компания находится в чрезвычайно выгодном положении для того, чтобы стать для других бизнесов предпочтительным партнёром в области ЦОД.

Постоянный URL: http://servernews.kz/1108475
25.07.2024 [11:15], Сергей Карасёв

ASRock представила встраиваемый компьютер DSF-A6000 с чипом AMD Ryzen Embedded R2314 и тремя Ethernet-контроллерами

Компания ASRock Industrial анонсировала встраиваемую систему DSF-A6000 с возможностью вывода изображения одновременно на четыре дисплея формата 4K. Устройство может монтироваться на стену или DIN-рейку; поддерживается стандартное крепление VESA.

В основу положен процессор AMD Ryzen Embedded R2314 с четырьмя ядрами, работающими на частоте 2,1–3,5 ГГц. Задействовано активное охлаждение с вентилятором. Возможно использование до 64 Гбайт оперативной памяти DDR4-2666 в виде двух модулей SO-DIMM. Для установки SSD с интерфейсом PCIe 3.0 x4 предусмотрен коннектор M.2 Key M 2242/2280.

 Источник изображения: ASRock Industrial

Источник изображения: ASRock Industrial

В оснащение включены три Ethernet-контроллера: Realtek RTL8111H и Intel I210 стандарта 1GbE, а также Realtek RTL8125BG стандарта 2.5GbE с опциональной поддержкой PoE+. Есть слот M.2 Key E 2230 (PCIe 3.0 x1; USB 2.0) для адаптера беспроводной связи и разъём M.2 Key B 3042/3052 (PCIe 3.0 x1; USB 3.2 Gen1; USB 2.0) для модема 4G/5G (плюс слот для SIM-карты). Звуковая подсистема базируется на кодеке Realtek ALC256 High Definition Audio.

На фронтальную панель выведены четыре интерфейса HDMI 2.0b для мониторов, два порта USB 3.2 Gen2 и два гнезда RJ-45 для сетевых кабелей. Сзади расположены последовательный порт RS-232 (RJ-50), ещё одно гнездо RJ-45, порт USB 2.0, аудиоразъём на 3,5 мм и DC-гнездо для подключения блока питания (19 В/90 Вт).

Новинка имеет размеры 182,2 × 175,2 × 25 мм и весит около 750 г. Диапазон рабочих температур — от 0 до +40 °C. Заявлена совместимость с Windows 11. За безопасность отвечает чип TPM 2.0.

Постоянный URL: http://servernews.kz/1108471
25.07.2024 [10:12], Владимир Мироненко

AMD показала превосходство чипов EPYC над Arm-процессорами NVIDIA Grace в серии бенчмарков, но не всё так просто

AMD провела серию тестов, чтобы доказать преимущество своих нынешних процессоров AMD EPYC над Arm-процессорами NVIDIA Grace Superchip. Как отметила AMD, в связи с растущей востребованностью ЦОД некоторые компании начали предлагать альтернативные варианты процессоров, «часто обещающие преимущества по сравнению с обычными решениями x86».

«Обычно их представляют с большой помпой и заявлениями о значительных преимуществах в производительности и энергоэффективности по сравнению с x86. Слишком часто эти утверждения довольно сложно воплотить в реальные сценарии конкурентной рабочей нагрузки — с использованием устаревших, недостаточно оптимизированных альтернатив или плохо документированных предположений», — отметила AMD.

С помощью серии стандартных отраслевых тестов AMD, по её словам, продемонстрировала преимущество EPYC над решениями на базе Arm. «Благодаря проверенной архитектуре x86-64, впервые разработанной AMD, вы можете получить всё это без дорогостоящего портирования или изменений в архитектуре», — подчеркнула компания. Иными словами, тесты AMD могут быть просто попыткой развеять опасения, что архитектура x86 «выдыхается» и что Arm берёт верх.

 Источник изображений: AMD

Источник изображений: AMD

AMD сравнила производительность AMD EPYC и NVIDIA Grace CPU в десяти ключевых рабочих нагрузках, охватывающих вычисления общего назначения, Java, транзакционные базы данных, системы поддержки принятия решений, веб-серверы, аналитику, кодирование видео и нагрузки HPC. Согласно представленному выше графику, 128-ядерный процессор EPYC 9754 (Bergamo) и 96-ядерный EPYC 9654 (Genoa) более чем вдвое превзошли NVIDIA Grace CPU Superchip по производительности при обработке вышеуказанных нагрузок.

Напомним, что Grace CPU Superchip содержит два 72-ядерных кристалла Grace, использующих ядра Arm Neoverse V2, соединённых шиной NVLink C2C с пропускной способность 900 Гбайт/с, и работает как единый 144-ядерный процессор. В свою очередь, ресурс The Register отметил, что речь идёт о версии с 480 Гбайт памяти LPDDR5x, а не с 960 Гбайт.

В тесте SPECpower-ssj2008, по данным AMD, одно- и двухсокетные системы на базе AMD EPYC 9754 превосходят систему NVIDIA Grace CPU Superchip по производительности на Вт примерно в 2,50 раза и 2,75 раза соответственно, а двухсокетная система AMD EPYC 9654 — примерно в 2,27 раза.

Помимо производительности и эффективности, ещё одним важным фактором для операторов ЦОД является совместимость, сообщила AMD. По оценкам, во всем мире существуют триллионы строк программного кода, большая часть которого написана для архитектуры x86. EPYC основаны на архитектуре x86-64, впервые разработанной AMD, и эта архитектура является наиболее широко используемой и поддерживаемой в индустрии ЦОД, заявила компания, добавив, что изменения в архитектуре сложны, дороги и чреваты риском.

AMD также отметила, что экосистема AMD EPYC включает более 250 различных конструкций серверов и поддерживает около 900 уникальных облачных инстансов. Также процессоры AMD EPYC установили более 300 мировых рекордов производительности и эффективности в широком спектре тестов. В то же время лишь немногие Arm-решения доказали свою эффективность.

В свою очередь, ресурс The Register отметил, что ситуация не так проста, как AMD пытается всех убедить. В феврале сайт The Next Platform сообщил, что исследователи из университетов Стоуни-Брук и Буффало сравнили данные о производительности суперчипа NVIDIA Grace CPU Superchip и нескольких процессоров x86, предоставленные несколькими НИИ и разработчиком облачных решений.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Большинство этих тестов были ориентированы на HPC, включая Linpack, HPCG, OpenFOAM и Gromacs. И хотя производительность системы Grace сильно различалась в разных тестах, в худшем случае она находилась где-то между Intel Skylake-SP и Ice Lake-SP, превосходя AMD Milan и находясь в пределах досягаемости от показателей Xeon Max. Данные результаты отражают тот факт, что самые мощные процессоры AMD EPYC Genoa и Bergamo могут превзойти первый процессор NVIDIA для ЦОД — при правильно выбранном тесте.

В техническом описании Grace CPU Superchip компания NVIDIA сообщает, что этот чип обеспечивает от 0,9- до 2,4-кратного увеличения производительности по сравнению с двумя 96-ядерными EPYC 9654 и предлагает до трёх раз большую пропускную способность в различных облачных и HPC-сервисах. NVIDIA отмечает, что Superchip предназначен для «обработки массивов для получения интеллектуальных данных с максимальной энергоэффективностью», говоря об ИИ, анализе данных, нагрузках облачных гиперскейлеров и приложениях HPC.

Постоянный URL: http://servernews.kz/1108454
25.07.2024 [09:59], Сергей Карасёв

OpenAI намерена потратить до $7 млрд на обучение ИИ в 2024 году, потеряв при этом $5 млрд

Затраты OpenAI на обучение ИИ-моделей и задачи инференса в 2024 году, по сообщению The Information, могут составить до $7 млрд. При этом компания может зафиксировать денежные потери в размере $5 млрд, что вынудит её искать новые возможности для привлечения инвестиций.

Как рассказали осведомлённые лица, OpenAI использует мощности, эквивалентные приблизительно 350 тыс. серверов с ускорителями NVIDIA A100. Из них около 290 тыс. обеспечивают работу ChatGPT. Утверждается, что оборудование работает практически на полную мощность.

В рамках обучения ИИ-моделей и инференса OpenAI получает значительные скидки от облачной платформы Microsoft Azure. В частности, Microsoft взимает с OpenAI около $1,3/час за ускоритель A100, что намного ниже обычных ставок. Тем не менее, только на обучение ChatGPT и других моделей OpenAI может потратить в 2024 году около $3 млрд.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

На сегодняшний день в OpenAI работают примерно 1500 сотрудников, и компания продолжает расширять штат. Затраты на заработную плату и содержание работников в 2024-м могут достичь $1,5 млрд. Компания получает около $2 млрд в год от ChatGPT и может получить ещё примерно $1 млрд от взимания платы за доступ к своим большим языковым моделям (LLM). Общая выручка OpenAI, согласно недавним результатам, лежит на уровне $280 млн в месяц. В 2024 году, по оценкам, суммарные поступления компании окажутся в диапазоне от $3,5 млрд до $4,5 млрд.

Таким образом, с учётом ожидаемых затрат в размере $7 млрд на обучение ИИ и инференс, а также расходов в $1,5 млрд на персонал OpenAI может потерять до $5 млрд. Это намного превышает прогнозируемые расходы конкурентов, таких как Anthropic (поддерживается Amazon), которая ожидает, что в 2024 году потратит $2,7 млрд. Не исключено, что OpenAI попытается провести очередной раунд финансирования. Компания уже завершила семь инвестиционных раундов, собрав в общей сложности более $11 млрд.

Постоянный URL: http://servernews.kz/1108470
25.07.2024 [09:57], Сергей Карасёв

Илон Маск показал ИИ-суперкомпьютер Dojo на основе чипов Tesla D1

Глава Tesla Илон Маск (Elon Musk), по сообщению ресурса Tom's Hardware, обнародовал фотографии вычислительного комплекса Dojo, который будет использоваться для разработки инновационных автомобильных технологий, а также для обучения автопилота.

Tesla, напомним, начала создание ИИ-суперкомпьютера Dojo в июле 2023 года. Основой системы послужат специализированные чипы собственной разработки Tesla D1. Дата-центр Dojo, расположенный в штаб-квартире Tesla в Остине (Техас, США), по своей конструкции напоминает бункер. В апреле нынешнего года сообщалось, что при строительстве ЦОД компания Маска столкнулась с трудностями, связанными в том числе с доставкой необходимых материалов.

Как теперь сообщается, Tesla намерена ввести Dojo в эксплуатацию до конца 2024 года. По производительности этот суперкомпьютер будет сопоставим с кластером из 8 тыс. ускорителей NVIDIA H100. По словам Маска, это «не слишком много, но и не тривиально». Для сравнения: мощнейший ИИ-суперкомпьютер компании xAI, также курируемой Илоном Маском, объединит 100 тыс. карт H100.

 Источник изображений: Илон Маск

Источник изображений: Илон Маск

Отмечается, что чипы Tesla D1 специально ориентированы на машинное обучение и анализ видеоданных. Поэтому систему Dojo планируется использовать прежде всего для совершенствования технологии автономного вождения Tesla путём обработки видеоданных, полученных от автомобилей компании. В свою очередь, «ИИ-гигафабрика» xAI поможет в развитии чат-ботов Grok следующего поколения.

Маск также сообщил, что компания Tesla намерена «удвоить усилия» по разработке и развертыванию Dojo из-за высоких цен на оборудование NVIDIA. Вместе с тем финансовый директор Tesla Вайбхав Танеджа (Vaibhav Taneja) заявил, что, несмотря на снижение капвложений во II квартале 2024 года, компания по-прежнему ожидает, что соответствующие затраты превысят $10 млрд.

Постоянный URL: http://servernews.kz/1108466
24.07.2024 [18:31], Владимир Мироненко

В Atos назначен новый гендиректор — шестой за три года

Atos сообщила об открытии по её ходатайству судом ускоренного защитного производства с целью реализации объявленного ранее плана финансовой реструктуризации. Компания отметила, что при принятии решения суд учёл высокий уровень поддержки плана со стороны кредиторов. Также Atos подчеркнула, что ускоренная защитная процедура влияет только на финансовый долг (RCF, TL, облигации) и акционерный капитал Atos и не отразится на поставщиках, сотрудниках и других претензиях, предъявленных к компании.

В рамках согласованного ранее пакета антикризисных мер кредиторы возьмут под свой контроль бизнес Atos, а облигации и долги на сумму €3,1 млрд будут конвертированы в акционерный капитал. Кредиторы также предоставят новый заем на €1,675 млрд и €233 млн в виде нового капитала. Поскольку большинство кредиторов подписали соглашение, защитная процедура поможет гарантировать завершение реструктуризации, даже если Atos в дальнейшем столкнётся с новыми проблемами. Судебное заседание состоится 15 октября 2024 года.

 Источник изображения: Atos

Источник изображения: Atos

«Открытие ускоренной защитной процедуры знаменует собой завершение важного шага в процессе финансовой реструктуризации Atos и начало новой эры восстановления и развития», — говорится в заявлении Atos. Также компания объявила о назначении Жана-Пьера Мюстье (Jean Pierre Mustier) гендиректором Atos в дополнение к имеющимся обязанностям председателя совета директоров, которые он исполняет с октября 2023 года.

Он сменил гендиректора Пола Салеха (Paul Saleh), покидающего пост в связи с завершением выполнения пакета мер по спасению компании. Мюстье стал шестым гендиректором Atos за трёхлетний период. До Салеха этот пост чуть более года занимал Ив Бернар (Yves Bernaert). А до него обязанности гендиректора исполняли Нурдин Биман (Nourdine Bihmane), Филипп Олива (Philippe Oliva) и Диана Гальб (Diane Galbe).

Постоянный URL: http://servernews.kz/1108435
Система Orphus