Материалы по тегу: облако

14.10.2024 [11:44], Руслан Авдеев

CoreWeave получила кредитную линию на $650 млн для развития ИИ-облака

Облачный провайдер CoreWeave привлёк кредитную линию на $650 млн от крупного инвестиционного бизнеса для масштабирования своей деятельности по всему миру. По данным Silicon Angle, лидерами раунда финансирования стали JPMorgan Chase, Goldman Sachs и Morgan Stanley, к ним присоединились Barclays, CitiGroup, Deutsche Bank, Jefferies, Mizuho, MUFG и Wells Fargo.

За последние 18 месяцев компания уже привлекла $12,7 млрд в виде акционерного капитала и долговых обязательств, оценка компании составила $19 млрд. В компании утверждают, что новая кредитная линия будет способствовать росту в быстроразвивающейся сфере ИИ.

Сегодня CoreWeave выступает оператором публичного облака, обеспечивающего доступ к ускорителям NVIDIA для ИИ и рендеринга — в том числе доступны NVIDIA H100 и H200. Ещё в августе компания заявила, что стала первым облачным провайдером, предоставившим клиентам доступ к новейшим ускорителям NVIDIA H200. Обучение и внедрение больших языковых моделей (LLM) требует больших вычислительных ресурсов, но CoreWeave говорит, что её инфраструктура позволяет легко масштабировать ИИ-нагрузки в облаке.

 Источник изображения: CoreWeave

Источник изображения: CoreWeave

На сегодня инвестиции в ИИ-платформы очень популярны, поскольку спрос на вычисления продолжает расти. Например, ранее в этом месяце OpenAI уже привлекла кредитную линию на $4 млрд и ещё $6.6 миллиарда в рамках инвестиционного раунда. При этом в формировании кредитных линий CoreWeave и OpenAI зачастую участвуют одни и те же инвестиционные компании.

Недавно CoreWeave открыла европейскую штаб-квартиру в Лондоне. При этом она намерена инвестировать $3,5 млрд в расширение бизнеса в Европе. В том числе речь идёт об открытии двух ЦОД в Великобритании, не считая дата-центров в Норвегии, Швеции и Испании. До конца года компания намерена получить в своё распоряжение до 28 ЦОД по всему миру. В 2025 году запланировано открытие ещё 10 дата-центров.

В апреле прошлого года CoreWeave получила $221 млн, а потом — ещё $200 млн. В августе 2023 года было объявлено о долговом финансировании в размере $2,3 млрд под залог ускорителей NVIDIA. В декабре того же года CoreWeave провела раунд финансирования на $642 млн, а в мае текущего года она получила $1,1 млрд. Позже компания привлекла ещё $7,5 млрд. Наконец, в октябре появилась информация о намерении Cisco инвестировать в компанию. При этом в рамках сделки CoreWeave может получить оценку в $23 млрд.

Постоянный URL: http://servernews.kz/1112400
10.10.2024 [19:08], Владимир Мироненко

TensorWave привлёк $43 млн на закупку ускорителей AMD Instinct MI300X для своего ИИ-облака, в том числе от самой AMD

Стартап TensorWave из Лас-Вегаса провёл раунд финансирования на условиях SAFE (simple agreements for future equity), в результате которого привлёк $43 млн, сообщили ресурсы DataCenter Dynamics и The Register. Условия SAFE означают, что инвесторы имеют право при определённых обстоятельствах конвертировать свои инвестиции в акции компании, но не смогут потребовать возврат денег. Финансовый раунд возглавил вице-президент Nexus, также в нём приняли участие Maverick Capital, Translink Capital, Javelin Venture Partners, Granite Partners и AMD Ventures.

Полученные средства TensorWave планирует использовать для оснащения своего основного ЦОД ускорителями AMD Instinct MI300X, на расширение команды, а также на подготовку к внедрению следующего поколения ускорителей Instinct MI325X и запуска новой корпоративной инференс-платформы Manifest в IV квартале 2024 года. По словам компании, Manifest, разработанная для поддержки более крупных контекстных окон ИИ-моделей с уменьшенной задержкой, помимо быстрого инференса позволяет анализировать сложные документы и безопасно обрабатывать и хранить конфиденциальные данные.

 Источник изображения: TensorWave

Источник изображения: TensorWave

Основанный в прошлом году стартап TensorWave, в отличие от большинства участников рынка ИИ, использующих ускорители NVIDIA, делает ставку на ускорители AMD Instinct. Разворачивать системы на базе MI300X стартап начал этой весной. Ускоритель MI300X также получил достаточно широкое распространение среди ряда облачных провайдеров. В частности, его использует Microsoft для обслуживания ИИ-модели OpenAI GPT-4 Turbo и многих сервисов Copilot. Oracle готова развернуть кластер из 16 384 MI300X. Также облачный стартап Vultr начал предлагать инстансы на базе MI300X.

MI300X имеет больше памяти, чему у того же NVIDIA H100 — 192 Гбайт против 80 Гбайт. С выпуском ускорителей следующего поколения MI325X в конце этого года AMD ещё больше увеличит преимущество, поскольку ёмкость HBM3e-памяти ускорителя вырастет до 288 Гбайт. Это втрое больше, чем у H100, и наполовину больше, чем у будущих ускорителей NVIDIA Blackwell, говорит компания.

Больший объём памяти особенно ценен для тех, кто запускает крупные ИИ-модели в FP16-формате. При 1536 Гбайт на узел система на базе MI300X может легко вместить модель Llama 3.1 405B от Meta, тогда как при использовании ускорителей H100 для этого её придётся разделить между несколькими системами или ужать с помощью 8-бит квантования. Можно также «втиснуть» несжатую модель в один узел с ускорителями NVIDIA H200, но тогда не останется достаточно места для большего контекстного окна, поддерживаемого моделью.

Постоянный URL: http://servernews.kz/1112277
09.10.2024 [12:44], Алексей Степин

AMD анонсировала ускоритель Radeon PRO V710 для облака Microsoft Azure

После долгого затишья обновилась серия графических ускорителей AMD Radeon PRO — Advanced Micro Devices представила Radeon PRO V710, созданный специально по заказу Microsoft для размещения в облаке Azure. Новинка характеризуется немалым для своего класса объёмом видеопамяти — она несёт на борту целых 28 Гбайт, то есть, больше, чем у всех сегодняшних игровых GPU, включая GeForce RTX 4090 и Radeon RX 7900 XTX.

При этом AMD Radeon PRO V710 не является вычислительным ускорителем в чистом виде, хотя и способен развивать 27,7 Тфлопс в режиме FP16 и 55,3 Топс в режиме INT8 на частоте 2 ГГц. В состав 5-нм новинки, состоящей из 28,1 млрд транзисторов, входят 3456 потоковых процессора, сгруппированных в 54 вычислительных блока RDNA 3. Реализована поддержка аппаратного ускорения трассировки лучей.

 Источник здесь и далее: AMD

Источник здесь и далее: AMD

Памяти, как уже отмечалось, новинка получила 28 Гбайт. Это GDDR6 ECC с 224-битной шиной, обеспечивающей пропускную способность 448 Гбайт/с. При этом 4 Гбайт этой памяти всегда используются для системных нужд, так что пользовательским задачам доступно лишь 24 Гбайт. Графический процессор располагает также 54 Мбайт быстрого кеша AMD Infinity Cache.

Технически Radeon PRO V710 представляет собой полноразмерную плату расширения PCIe 4.0 x16 одинарной высоты с пассивным охлаждением. При теплопакете 158 Вт адаптер полностью полагается на систему охлаждения сервера. Поскольку это, по сути, заказное решение, приобрести отдельно данный ускоритель будет нельзя, а в условиях ЦОД проблем с охлаждением быть не должно, к тому же, частота GPU намеренно ограничена планкой 2 ГГц.

Главной сферой применения Radeon PRO V710 станет его применение в облачных сценариях класса Desktop-as-a-Service и Workstation-as-a-Service, то есть для запуска виртуальных рабочих сред. Набортный кодировщик видео поддерживает сжатие в форматах AV1, HEVC H.265 и AVC H.264. Также озвучены сценарии облачного гейминга и применения ускорителя в инференс-системах. В последнем случае будет актуальна совместимость с AMD ROCm и наличие блоков ускорения перемножения матриц.

Microsoft Azure уже анонсировала новые инстансы на основе нового ускорителя. Они поддерживают в качестве гостевых систем как Windows, так и Linux, в последнем случае обеспечена поддержка Azure Kubernetes Service. Количество виртуальных vCPU – от 4 до 28, объёмы пользовательской памяти начинаются с 16 Гбайт и достигают 160 Гбайт, а видеопамяти за счёт поддержки SR-IOV выделяется от 4 до 24 Гбайт. Минимальная ширина сетевого канала при этом составит 3,3 Гбит/с, а максимальная — 20 Гбит/с.

Постоянный URL: http://servernews.kz/1112200
08.10.2024 [14:24], Руслан Авдеев

Квантовое облако — это надёжно: D-Wave анонсировала SLA для своего сервиса квантовых вычислений Leap

Компания D-Wave анонсировала соглашения об уровне обслуживания (SLA) для своего облачного квантового сервиса Leap, что косвенно говорит о желании компании заявить о высоком уровне доступности, надёжности и масштабируемости своих услуг и возможности предоставлять квантовые сервисы коммерческого уровня.

Точные условия SLA для Leap не разглашаются, но D-Wave говорит о работоспособности и доступности системы на уровне 99,9 %, при этом время решения задач не превышает 1 с даже в случае больших вычислительных нагрузок. Запущенный в 2018 году сервис Leap обеспечивает облачный доступ в режиме реального времени к квантовым компьютерам D-Wave, работающим в режиме реального времени и использующим технологию т.н. «квантового отжига». В D-Wave утверждают, что в последние два года сервис покзала доступность выше 99,9 % и Solver API, и кластера квантовых компьютеров компании.

 Источник изображения: D-Wave

Источник изображения: D-Wave

С момента запуска сервиса Leap клиенты выполнили около 200 млн задач без необходимости предварительного бронирования, ожидания в очереди или попадания в ситуацию недоступности оборудования. В том числе за последние 12 месяцев были поданы 60 млн задач. Как заявляют в компании, с ускорением перехода к коммерческому внедрению квантовых технологий обеспечение бесперебойного доступа к квантовому облаку как никогда важно. SLA разработано именно для того, чтобы поддерживать динамичный переход, способствующий процветанию бизнеса.

Большинство провайдеров квантовых вычислений предлагают доступ посредством облачных порталов — или собственных, или созданных в партнёрстве с крупными облаками. При этом уровень доступности таких сервисов пока что гораздо ниже, чем у практически любого другого облачного сервиса, отмечает DataCenter Dynamics. Квантовые системы весьма чувствительны к окружению, где они работают, а из-за своей технической сложности весьма медленно ремонтируются. Кроме того, число квантовых компьютеров ограничено, поэтому задачи клиентов часто приходится выстраивать в очередь.

Как заявляют эксперты IDC, интеграция квантовых вычислений в общую IT-инфраструктуру компаний требует использования систем, готовых обеспечить некоторые гарантии на работу в режиме реального времени, вроде SLA. Необходим такой же уровень обслуживания, который предоставляется сегодня, например, SaaS. Впрочем, у D-Wave пока немало проблем. На сегодня компании грозит делистинг с Нью-Йоркской фондовой биржи — акции компании котируются очень низко.

Постоянный URL: http://servernews.kz/1112140
08.10.2024 [12:36], Сергей Карасёв

Inflection AI и Intel представили ИИ-систему на базе Gaudi3

Стартап Inflection AI и корпорация Intel объявили о сотрудничестве с целью ускорения внедрения ИИ в корпоративном секторе. В рамках партнёрства состоялся анонс Inflection for Enterprise — первой в отрасли ИИ-системы корпоративного класса на базе ускорителей Intel Gaudi3 и облака Intel Tiber AI Cloud (AI Cloud).

Inflection AI основана в 2022 году Мустафой Сулейманом (Mustafa Suleyman), одним из основателей Google DeepMind, а также Ридом Хоффманом (Reid Hoffman), одним из учредителей LinkedIn. Стартап специализируется на технологиях генеративного ИИ. В середине 2023 года Inflection AI получила на развитие $1,3 млрд: в число инвесторов вошли Microsoft и NVIDIA.

Inflection for Enterprise объединяет Gaudi3 с большой языковой моделью (LLM) Inflection 3.0. Утверждается, что это ПО при использовании на аппаратной платформе Intel демонстрирует вдвое более высокую экономическую эффективность по сравнению с некоторыми конкурирующими изделиями. Заказчики получат LLM, настроенную в соответствии с их пожеланиями. Для удовлетворения потребностей каждого конкретного клиента применяется обучение с подкреплением на основе отзывов людей (RLHF). При этом используются данные, предоставленные самим заказчиком.

 Источник изображения: Intel

Источник изображения: Intel

Отмечается, что облако AI Cloud упрощает создание, тестирование и развёртывание ИИ-приложений в единой среде, ускоряя время выхода продуктов на рынок. Тонко настроенные ИИ-модели доступны исключительно клиенту и не передаются в третьи руки. На первом этапе системы Inflection for Enterprise будут предлагаться через облако AI Cloud. В I квартале 2025 года планируется организовать поставки программно-аппаратных комплексов.

Постоянный URL: http://servernews.kz/1112124
07.10.2024 [12:19], Сергей Карасёв

В облаке Microsoft Azure появились инстансы ND H200 v5 на базе NVIDIA H200

В августе 2023 года Microsoft развернула в своём облаке Azure инстансы ND H100 v5 на базе NVIDIA H100 для HPC-вычислений и нагрузок ИИ. А теперь запущены машины ND H200 v5 с ускорителями NVIDIA H200, оптимизированные для инференса и обучения больших языковых моделей (LLM).

Новые инстансы объединяют восемь ускорителей NVIDIA H200, каждый из которых содержит 141 Гбайт памяти HBM3e с пропускной способностью 4,8 Тбайт/с. По сравнению с NVIDIA H100 объём памяти увеличился на 76 %, пропускная способность — на 43 %.

Для ND H200 v5 предусмотрена возможность масштабирования до тысяч ускорителей при помощи интерконнекта на базе NVIDIA Quantum-2 CX7 InfiniBand с пропускной способностью до 400 Гбит/с в расчёте на ускоритель (до 3,2 Тбит/с на виртуальную машину). В составе инстансов задействованы чипы Intel Xeon поколения Sapphire Rapids: каждая виртуальная машина насчитывает 96 vCPU. Объём памяти составляет 1850 Гбайт, вместимость локального хранилища — 28 000 Гбайт. Обеспечивается доступ к 16 облачным накопителям. Кроме того, используются восемь сетевых адаптеров (суммарно до 80 Гбит/c).

 Источник изображения: Microsoft

Источник изображения: Microsoft

Виртуальные машины ND H200 v5 имеют предварительную интеграцию с Azure Batch, Azure Kubernetes Service, Azure OpenAI Service и Azure Machine Learning. Говорится, что инстансы обеспечивают высокую производительность при решении различных задач, связанных с ИИ, машинным обучением и аналитикой данных.

Постоянный URL: http://servernews.kz/1112078
04.10.2024 [15:22], Руслан Авдеев

Oracle вложит $6,5 млрд в ИИ и облако в Малайзии

Oracle намерена потратить $6,5 млрд на создание ЦОД и облачного региона в Малайзии. Как сообщает Bloomberg, компания станет последним крупным игроком, принявшим решение инвестировать в ИИ-инфраструктуру Юго-Восточной Азии. Пресс-служба самой компании объявила, что новый облачный регион даст возможность использовать инфраструктуру и сервисы ИИ, перенося критически важные нагрузки в Oracle Cloud Infrastructure (OCI).

Создаваемое публичное облако поможет малайзийским компаниям модернизировать свои приложения, перенести в облако все типы рабочих нагрузок и выполнять ряд других задач. Клиенты получат доступ к агентам OCI Generative AI, ускоренным вычислениям и сервисам на базе генеративного ИИ, позволяющим хранить и обрабатывать суверенные модели в границах страны, а также доступ к OCI Supercluster на базе новейших ускорителей NVIDIA GB200 NVL72. Место размещения региона не названо, но облачные мощности страны сосредоточены в Джохоре и Куала-Лумпуре.

Власти Малайзии приветствовали инициативу компании, работающей в стране уже в 36 лет. Только в этом году в облако OCI мигрировали две малайзийские компании — IHH Healthcare и Great Eastern. Ожидается, что инвестиции помогут развитию технологий для малого и среднего бизнеса, а также будут способствовать реализации национального план New Industrial Master Plan, предусматривающего создание в стране 3 тыс. «умных производств» к 2030 году.

 Источник изображения:  Jaanus Jagomägi/unsplash.com

Источник изображения: Jaanus Jagomägi/unsplash.com

Малайзия становится крупным рынком ЦОД в Азиатско-Тихоокеанском регионе и имеет большие амбиции по его дальнейшему расширению. Хотя Сингапур начал постепенно ослаблять ограничения, связанные с мораторием на строительство новых ЦОД, Малайзия рассчитывает переманить к себе значительное число новых проектов у соседа.

В начале октября 2024 года Google начала строительство дата-центра в Куала-Лумпуре, вскоре после анонса партнёрства с DNeX для предоставления в стране суверенных облачных сервисов и намерена вложить $2 млрд в ЦОД и облако в Малайзии. AWS запустила малайзийский облачный регион в августе, а Microsoft анонсировала планы создания в Куала-Лумпуре региона Azure ещё в апреле 2021 года. Общая сумма инвестиций должна составить $2,2 млрд. Oracle не называет точных временных рамок развёртывания инфраструктуры в Малайзии, но нет сомнений, что она готовится побыстрее получить часть ИИ-пирога в регионе.

Постоянный URL: http://servernews.kz/1111983
04.10.2024 [13:57], Руслан Авдеев

Microsoft потратит €4,3 млрд на развитие облачной и ИИ-инфраструктуры в Италии

Компания Microsoft пообещала инвестировать €4,3 млрд ($4,75 млрд) в расширение инфраструктуры облачных и ИИ ЦОД в Италии. Речь идёт о крупнейшей инвестиции компании в Италии на сегодняшний день. Компания расширит ЦОД на севере стране, а также обучит более 1 млн жителей страны работе с ИИ и цифровыми технологиями до конца 2025 года. После расширения бизнеса Microsoft Италия превратится в один из крупнейших хабов ЦОД в Европе, а местная инфраструктура станет ключевой не только для Италии, но и для стран Средиземноморья и Северной Африки.

По словам президента Microsoft Брэда Смита (Brad Smith), инвестиции подчёркивают приверженность компании цифровой трансформации страны — итальянские власти и бизнес получат инструменты для построения экономики на основе ИИ-технологий, создающих рабочие места и способствующих процветанию государства.

Компания также объявила, что инвестирует в обеспечение экоустойчивости ИИ в стране. Уже сегодня Microsoft заключила три PPA на поставку возобновляемой энергии в Италии, а в ближайшем будущем будут найдены дополнительные возможности в этой сфере. Подробности действующих PPA не разглашаются. Сообщается, что ЦОД также находятся в процессе перевода резервных генераторов на возобновляемое биотопливо, что позволит снизить углеродные выбросы.

 Источник изображения: Anders Jildén/unspalsh.com

Источник изображения: Anders Jildén/unspalsh.com

В Microsoft сообщают, что дата-центры в Италии используют технологии «прямого испарительного охлаждения», позволяющие сократить расход воды, причём большая часть используемой берётся из дождевых либо грунтовых вод. Облачный регион Microsoft в Италии расположен в Милане. Впервые компания сообщила о планах его строительства ещё в 2020 году, запуск состоялся в 2023 году на объекте Stack (бывшем SuperNAP Italita).

Компания стала последним из американских гиперскейлеров, запустивших в Италии облака. AWS ввела в эксплуатацию облачный регион в Милане в 2020 году и намерена тратить миллиарды дополнительно, Oracle — в 2021 году, а Google — в 2022 году, причём второй регион GCP компании уже запущен в Турине.

Постоянный URL: http://servernews.kz/1111986
02.10.2024 [12:26], Руслан Авдеев

Google потратит $1 млрд на постройку облачной и ИИ-инфраструктуры в Таиланде

Компания Google намерена вложить $1 млрд в строительство новых дата-центров в Таиланде. Bloomberg сообщает, что она присоединится к другим технологическим компаниям, масштабирующим облачную и ИИ-инфраструктуру в Юго-Восточной Азии (ЮВА).

Компания намерена добавить соответствующие объекты в Бангкоке и Чонбури — эта провинция расположена к юго-востоку от тайской столицы. Это вложение позволит добавить $4 млрд в экономику страны к 2029 году и в следующие пять лет компания будет поддерживать 14 тыс. рабочих мест.

Инвестиция, совместно анонсированная Google и властями Таиланда, отражает усилия, прилагаемые азиатскими странами для привлечения в регион зарубежных технологических компаний. Если ранее многие страны региона с населением около 675 млн человек были не особенно развиты в IT-сфере, то теперь для компаний вроде Apple, Microsoft, NVIDIA и Amazon открываются большие возможности. Они тратят миллиарды долларов на строительство новых ЦОД от Таиланда и Малайзии до Сингапура и Индонезии.

Как сообщают в Google, компания инвестирует в облачные регионы, дата-центры и подводные кабели в ЮВА — в компании считают, что регион обладает большим потенциалом. Всего на конец 2023 года Google, AWS и Microsoft намеревались инвестировать в строительство дата-центров в Таиланде почти $8,5 млрд. Google также анонсировала миллиарды долларов инвестиций в Малайзии и Сингапуре.

 Источник изображения: Geoff Greenwood/unsplash.com

Источник изображения: Geoff Greenwood/unsplash.com

В настоящее время правительства всего мира пытаются сохранить баланс, с одной стороны стараясь обеспечить цифровой суверенитет, с другой — привлечь иностранные инвестиции. Власти надеются сохранить контроль над данными своих граждан и способствуют формированию местных технологических компаний, в то же время применяя инвестиционные ресурсы и опыт транснациональных гигантов для строительства облачной и ИИ-инфраструктуры.

Новые мощности ЦОД Таиланда помогут поддержать сервисы Google на основе ИИ — поиска, карт и офисных инструментов. Компания начала вести дела в Таиланде ещё 13 лет назад и заявляет, что в последние пять лет обучила 3,6 млн студентов, преподавателей и разработчиков, а также представителей предприятий малого и среднего бизнеса.

Инвестиции вполне соответствуют политике страны в отношении облачных услуг. Предполагается, что они ускорят развитие инновационных цифровых сервисов и, в ответ, это позволит компании открыть там новые экономические возможности. Летом власти Таиланда одобрили $291 млн инвестиций в местную индустрию ЦОД.

Постоянный URL: http://servernews.kz/1111853
01.10.2024 [17:53], Руслан Авдеев

KT Corporation заключила с Microsoft многомиллиардную сделку в сфере ИИ

Южнокорейская KT Corporation и Microsoft заключили «многомиллиардную» сделку о развитии ИИ-систем в Южной Корее. В частности, KT Telecom в течение 15 лет вложит $450 млн в сетевую инфраструктуру и ЦОД, которой воспользуется Microsoft. Microsoft, в свою очередь, будет отвечать за персонал и IT-инфраструктуру. Первое соглашение о стратегическом партнёрстве между компаниями было подписано ещё летом 2024 года,

KT Telecom и Microsoft создадут кастомизированную версию ИИ-модели OpenAI GPT-4o, а также изучат создание малых языковых моделей Microsoft Phi. KT предоставит наборы данных, которые позволят адаптировать модели к корейскому языку и культуре. Они будут использоваться как для внутренних нужд KT, так и в качестве основы для вертикально интегрированных B2B-решений в различных отраслях.

Также компании займутся развитием суверенных облаков на базе платформы Microsoft Cloud for Sovereignty для регулируемых отраслей вроде государственного и финансового секторов. Кроме того, будет создан центр совместных инноваций, направленный на создание ИИ-решений для цифровой трансформации. Microsoft поможет обучить 19 тыс. сотрудников KT навыкам работы с облачными технологиями и ИИ.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Как сообщают в Microsoft, сотрудничество поможет объединить отраслевой опыт KT Telecom с возможностями технологического стека Microsoft, от Azure AI до Microsoft 365 Copilot. Вместе компании смогут ускорить ИИ-трансформацию корейских организаций как в частном, так и в государственном секторах, а также обеспечить новый опыт на основе ИИ для миллионов потребителей.

В 2017 году Microsoft ввела в эксплуатацию два облачных региона в Южной Корее — Центральный и Южный регионы в Сеуле и Пусане соответственно. В 2021 году в Сеуле добавлены дополнительные зоны доступности. Конкурирующий с KT конгломерат SK Group также активно вкладывается в развитии ИИ, но в то же время прилагает немалые усилия по импортозамещению американских технологий.

Постоянный URL: http://servernews.kz/1111800

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus