Материалы по тегу: облако
23.04.2025 [16:15], Руслан Авдеев
GPU под роспись: Amazon резко ужесточила использование дефицитных ИИ-ускорителей внутри компании в рамках Project GreenlandВ прошлом году ретейл-бизнес Amazon столкнулся с острой нехваткой ИИ-ускорителей для внутреннего пользования. Это привело к задержкам при реализации ключевых проектов. На фоне глобального бума ИИ-технологий и дефицита чипов NVIDIA компания вынужденно пересмотрела принципы доступа к ускорителям для собственных нужд, сообщает Business Insider. В июле 2024 года началась реализация т. н. Project Greenland. Фактически речь идёт о платформе для централизованного распределения ресурсов ускорителей. Платформа позволяет отслеживать их использование, перераспределяет мощности в случае простоя и даёт возможность оперативно реагировать на изменения спроса. Теперь все заявки на доступ к ускорителям подаются только через Greenland, а приоритет получают проекты с высоким уровнем возврата инвестиций (ROI), чётким графиком и заметным влиянием на снижение затрат или рост выручки. У проектов с низкой эффективностью доступ к вычислительным мощностям могут вообще отозвать в пользу более перспективных инициатив. Amazon выделила восемь принципов распределения ускорителей среди сотрудников компании:
![]() Источник изображения: Centre for Ageing Better/unsplash.com Amazon уже активно использует искусственный интеллект в различных проектах. В числе ключевых инициатив:
По оценкам Amazon, ИИ-проекты розничного подразделения в 2024 году принесли $2,5 млрд операционной прибыли, попутно сэкономив $670 млн. В 2025 году ретейл-подразделение Amazon намерено вложить $1 млрд в ИИ-проекты розничного сегмента и увеличить расходы на облако AWS до $5,7 млрд (с $4,5 млрд в 2024 году). Если во II полугодии 2024 года розница Amazon нуждалась в более 1 тыс. дополнительных инстансов P5 с NVIDIA H100, то в 2025 году ситуация, как свидетельствуют внутренние прогнозы, должна стабилизироваться. А к концу года внутренние запросы полностью удовлетворят с помощью чипов собственной разработки Amazon Tranium, «но не раньше». Тем не менее, в Amazon не теряют бдительности, постоянно задаваясь вопросом: «Как получить больше ускорителей?».
19.04.2025 [02:15], Руслан Авдеев
Linux — это дорого и сложно: AWS и Google Cloud заявили, что вырваться из экосистемы Microsoft невероятно трудно
aws
google cloud platform
microsoft
microsoft azure
software
sql server
windows server
великобритания
конкуренция
лицензия
миграция
облако
Компании, вложившие большие средства в ПО Microsoft, буквально не могут покинуть принадлежащее последней облако Azure, чтобы перейти в AWS или Google Cloud Platform вместо собственных серверов. Использовать ПО гиганта из Редмонда в облаках сторонних провайдеров из-за лицензионной политики Microsoft очень дорого, но и переписывать ПО для Linux, возможно, ещё дороже, сообщает The Register. AWS и Google пожаловались в британское Управление по конкуренции и рынкам (CMA), ведущее расследование ситуации на облачном рынке страны, что клиенты столкнулись с дилеммой — либо использовать Azure, либо платить в четыре раза больше за запуск приложений под Windows Server и SQL Server в сторонних облаках. В 2019 году Microsoft ввела систему «запретительного» лицензирования, начав требовать отдельные лицензии для работы Windows Server и SQL Server в облаках Amazon, Google и Alibaba. Простейшим решением был бы переход клиентов на Linux, но зачастую они вложили немало средств в экосистему Microsoft и выбирать им не приходится — они «очень зависимы» от Windows и других продуктов. Google жалуется на искусственно созданную Microsoft привязку к Windows Server и SQL Server — на модернизацию и перенос таких систем на Linux «уйдут годы и годы». Фактически придётся переписать все приложения, годами создававшиеся под экосистему Microsoft. По данным Google, у некоторых компаний на подобную миграцию действительно уходило по несколько лет, что сказалось на ценах для конечных пользователей. У многих организаций просто нет ресурсов для таких «реформ». Кроме того, использующие Windows Server на собственном оборудовании и желающие перебраться в облако компании из-за стоимости лицензий фактически не имеют выбора — миграция в Azure для них будет значительно дешевле, чем в другие облака. AWS также согласна с тем, что переход на Linux и другое облако для многих клиентов Azure — это очень дорогая, часто экономически неоправданная задача. По подсчётам Google, 70–80 % выручки Azure поступает от клиентов, использующих Windows Server и SQL Server. Таким образом, говорит Google, конкретно это ПО — «критически важная часть» облачного рынка. Google и AWS хотят, чтобы CMA решила вопрос с неконкурентным ценообразованием Microsoft. Британский регулятор предварительно уже решил, что такое поведение компании действительно не соответствует правилам «здорового» рынка. В самой Microsoft считают, что в удержании клиентов при переходе с on-premise в облако нет ничего противоправного. По её мнению, при подходе к ценообразованию SPLA она соблюдает баланс, прося «не слишком мало, но и не слишком много». Кроме того, компания предлагает Linux-версию SQL Server. Окончательное решение CMA должно вынести 4 июля. В числе прочих расследуемых проблем — комиссии за перенос данных (egress fees) и технические барьеры при переходе из облака в облако. В самом CMA больших проблем в этом не видят, но малые облачные провайдеры не согласны, считая, что подобные препятствия на руку лишь гиперскейлерам. Формально «штрафы» за перенос данных в другое облако «большая тройка» отменила. Вот только Amazon не требует при миграции отказываться от всех сервисов и закрывать аккаунты, а Microsoft и Google — требуют.
18.04.2025 [15:17], Руслан Авдеев
Из-за политики США европейские пользователи задумались об уходе из американских облаковЕвропейские пользователи облачных сервисов становятся всё менее лояльны американским гиперскейлерам в условиях геополитической неопределённости — некоторые региональные европейские облака сообщают о росте спроса со стороны «соотечественников», сообщает The Register. После года «зацикливания» на ИИ-тематике, акцент сместился на обсуждение политики США. Даже до начала недавней, весьма опасной игры с пошлинами, европейские пользователи уже задавались вопросом, так ли необходимо включать базирующихся в США гиперскейлеров в свои бизнес-цепочки. По словам британского облачного провайдера CIVO, перемены происходят на удивление быстро — в компании всё ещё «ошеломлены» скоростью роста интереса к альтернативным облакам. Nextcloud говорит, что интерес к её сервисам вырос втрое, причём не только из-за действий самого президента США, но и его администрации в целом. В частности, Nextcloud обвиняет американскую сторону в «ненадёжности» и возможном росте цен из-за пошлин. Более того, на повестке появился даже фактор шпионажа — Илона Маска (Elon Musk) и департамент DOGE обвиняют в доступе к по-настоящему конфиденциальным базам (о том, что США регулярно следили даже за союзниками десятилетиями, не упоминается). Частный облачный оператор Vultr (американского происхождения) с площадками по всему миру тоже отметил рост интереса к суверенной инфраструктуре — правительства и организации желают знать, где хранятся, обрабатываются и резервируются их данные, как они используются. Теперь же опасения только усилились, поскольку нет ясности, как будут развиваться экономические отношения между сторонами. При этом уйти от гиперскейлеров непросто и на это могут уйти месяцы или даже годы, а приступать к переходу следует поэтапно, после того как найдутся альтернативные провайдеры. Впрочем, в Nextcloud сообщают, что некоторые организации, которым «по-настоящему угрожает» американский режим, запросили компанию о более быстром переходе. В Open Infrastructure Foundation подтверждают, что интерес к альтернативным облакам действительно резко вырос, хотя до этого разговоры о переходе велись годами. Ситуацию некоторые эксперты сравнили с покупкой VMware в 2023 году, когда для многих клиентов последней цена лицензий значительно выросла и отголоски до сих пор ощущаются в IT-индустрии, а многие клиенты начали лихорадочно искать альтернативы. Многие эксперты уверены, что с правильной мотивацией переход от американских гиперскейлеров вполне возможен, а мотивация именно сейчас как раз присутствует. Конечно, интерес ещё не значит, что все, выразившие его, обязательно мигрируют к европейским облачным провайдерам, но саму тенденцию уже невозможно не замечать. В октябре 2024 года сообщалось, что Евросоюзу не хватает мощностей ЦОД для обретения суверенного ИИ. Впрочем, строительством суверенных облаков для Европы занялись как гиперскейлеры вроде AWS и Microsoft, так и местные игроки, развивающие, например, суверенную платформу Virt8ra.
18.04.2025 [08:56], Руслан Авдеев
AWS: облако Azure лишится половины нагрузок, как только Microsoft ослабит политику лицензирования своего ПО
aws
google cloud platform
microsoft
microsoft azure
software
великобритания
конкуренция
лицензия
облако
По оценкам AWS, облако Microsoft Azure лишилось бы половины нагрузок корпоративных клиентов, если бы не «заградительные пошлины» на уход от редмондской компании. Заявление фигурирует в очередной жалобе Управлению по конкуренции и рынкам Великобритании (CMA) в рамках расследования Cloud Services Market Investigation, сообщает The Register. С 2019 года использование Windows Server и ряда других продуктов в облаках прямых конкурентов Microsoft вчетверо дороже, чем в Azure. Сама Microsoft не видит в этом никакой проблемы. В AWS утверждают, что такая практика лицензирования Microsoft вредит конкуренции и облачному рынку Великобритании. При этом в компании уверены, что Microsoft не имеет убедительных оправданий для подобных изменений, искусственно завышая цены. Google поддерживает AWS в данном вопросе, а заодно подала аналогичную жалобу регуляторам Евросоюза, да и в целом пытается сколачивать союзы против конкурента. AWS и Google опасаются, что более высокие цены на ПО Microsoft при использовании в чужих облаках коммерчески «привязывают» клиентов к компании. В AWS подчёркивают, что Microsoft доминирует на некоторых сегментах рынка ПО, поэтому клиенты, желающие использовать их в облаке, фактически зависимы от Azure. Кроме того, некоторые «неценовые» ограничения также мешают использовать софт компании в чужих облаках. В частности, BYOL-политика Microsoft заставляет заново покупать лицензии на уже приобретённое ПО, если у клиента появится желание перейти в отличные от Azure облака. ![]() Источник изображения: Felix Mittermeier/unsplash.com CMA инициировало расследование ситуации на британском облачном рынке в 2023 году. Оно всё ещё продолжается, хотя предварительные выводы уже сделаны и в них Microsoft действительно признана злоупотребляющей доминирующим положением (впрочем, досталось и AWS). CMA также считает, что стратегия Microsoft даёт ей возможность «частично блокировать» AWS и Google, что вредит конкуренции. Microsoft в ответ заявила, что вмешательство CMA грубо нарушит права компании на интеллектуальную собственность и что в отрасли никто ещё не сталкивался с подобной несправедливостью. Теперь AWS утверждает то, что многие пользователи уже сегодня выбрали бы перенос ПО Microsoft в облако AWS, поскольку «хотят и могут». Возможно, 50 % таких нагрузок мигрировало бы из Azure куда-либо ещё, если бы это было экономически целесообразно. От Microsoft требуют отказаться от непомерных лицензионных сборов и других «неценовых» ограничений. Кроме того, даже клиентам Azure приходится платить больше из-за отсутствия конкуренции. Впрочем, в AWS признали, что трудно оценить, сколько клиентов остались бы в Azure, если бы имели возможность уйти, не теряя денег. ![]() Источник изображения: Felix Mittermeier/unsplash.com Google в целом поддерживает позицию AWS и предлагают запретить Microsoft ставить неприемлемые условия лицензирования своего ПО в Google Cloud Platform, заставить отказаться от других практик привязки пользователей к своим сервисам и запретить Microsoft ограничивать третьим сторонам возможность продажи лицензий на её ПО для использования в Google Cloud. Microsoft не согласна ни с CMA, ни с конкурентами, считая, что решения регулятора об ограничениях ПО слишком расплывчаты, в том числе относительно определений того, почему вдруг прибыли AWS и Google в данном контексте посчитали слишком низкими. Кроме того, компания вовсе не против использования Windows Server и SQL Server в облаках AWS и Google, поскольку это тоже приносит деньги и важно для бизнеса. При этом в компании подчёркивают, что не хотят делать цену за использования ПО слишком низкой, но вот если бы она была чересчур высокой, то клиенты уже перешли бы на альтернативные программные платформы. По мнению Microsoft, AWS и Google зарабатывают достаточно, чтобы успешно конкурировать с ней, так что создавать им дополнительные преимущества нецелесообразно.
14.04.2025 [11:45], Сергей Карасёв
Облачный провайдер Hypertec Cloud купил оператора 5C Data Centers для развития ИИ-инфраструктуры в СШАПровайдер облачных сервисов Hypertec Cloud, по сообщению Datacenter Dynamics, заключил соглашение о приобретении поставщика услуг ЦОД и колокейшн 5C Data Centers. Сообща стороны сформируют группу 5C Group, которая займётся развитием инфраструктуры дата-центров для ресурсоёмких задач ИИ на всей территории США. История Hypertec Cloud (входит в Hypertec Group) уходит корнями в 1984 год: в то время компания развивала бизнес по производству IT-систем. Облачная платформа Hypertec Cloud была запущена в 2021 году после приобретения Cloud.co. Hypertec Cloud предлагает инфраструктурные решения, специально оптимизированные для наиболее требовательных рабочих нагрузок ИИ. В свою очередь, фирма 5C, базирующаяся в Монреале (Канада), начала деятельность в 2023 году. Компанию основал Стив Перес (Steve Perez) — один из учредителей канадской Hypertec DCS, которая входит в Hypertec Group. Бизнес Hypertec в сфере дата-центров в Канаде был приобретён компанией Vantage в 2020 году. ![]() Источник изображения: 5C Data Centers В рамках новой сделки, условия которой не раскрываются, Hypertec Cloud отделится от материнской Hypertec Group и станет частью 5C Group. Президент Hypertec Cloud Джонатан Адут (Jonathon Ahdoot) возглавит новую структуру в качестве генерального директора. Предполагается, что 5C Group объединит возможности облачных вычислений Hypertec экспертизой 5C в сфере ЦОД. В число площадок 5C входят кампус мощностью 200 МВт в Колумбусе (Огайо, США), о котором было объявлено в июне 2024 года, а также объект мощностью 20 МВт в Финиксе (Аризона, США), анонсированный в сентябре. Новая компания, как ожидается, позволит ускорить развитие передовой вычислительной инфраструктуры ИИ на американском рынке. Нужно отметить, что в США реализуются и другие проекты в области дата-центров для ИИ. Так, OpenAI, Softbank и Oracle объявили о формировании совместного предприятия Stargate по развитию ИИ-инфраструктуры. На начальном этапе в строительство ЦОД планируется вложить $100 млрд, а в перспективе общий объём инвестиций достигнет $500 млрд. Первый комплекс дата-центров Stargate разместится на территории кампуса компании Lancium в Абилине (штат Техас).
14.04.2025 [08:10], Владимир Мироненко
На 40 % быстрее и дешевле обычного интернета: Google предложила компаниям доступ к своей сетевой инфраструктуре планетарного масштабаGoogle объявила о запуске Cloud WAN, полностью управляемой корпоративной WAN-платформы, которая делает доступной для всех компаний и организаций всемирную сетевую инфраструктуру Google, поддерживающую собственные сервисы компании, включая поисковик, Google Cloud Platform, Gmail, YouTube и т.п. Как отмечалось в исследовании ASPI, в настоящее время гиперскейлеры владеют около 71 % международных подводных линий связи. В то же время они стремительно наращивают ёмкость и количество дата-центров, отмечает Synergy Research. Всё это обеспечивает им практически полный контроль над всей цепочкой предоставления интернет-услуг, от создания до хранения, обработки и передачи данных. Однако Google, представив Cloud WAN, намекнула, что готова «отобрать хлеб» у традиционных телеком-операторов. Компания также запустила программу Verified Peering Provider (VPP), которая ранжирует операторов по качеству и глубине связи с сетями Google, и поменяла подход к работе с IX. Сейчас у Google более 5700 прямых пиринговых подключений и доступ к более чем 60 тыс. ASN. Сеть Google занимает первое место среди провайдеров облачных услуг и шестое место в мировом пиринге. Благодаря 202 точкам присутствия (PoP), более 3,2 млн км оптоволокна и 33 подводным кабелям сеть Google предлагает надёжную отказоустойчивую (заявленный SLA 99,99 %) глобальную WAN-платформу для критически важных для бизнеса приложений, сообщает компания. ![]() Источник изображений: Google Google Cloud WAN была специально разработана для замены традиционных корпоративных архитектур WAN. Сеть Google подключена ко всем основным игрокам облачных вычислений в мире и всем известным провайдерам крупных ЦОД, что позволяет ей доставлять трафик с высокой скоростью близко к конечному пункту назначения. По словам компании, Cloud WAN обеспечивает до 40 % более низкую задержку по сравнению с общедоступным интернетом и до 40 % экономии общей стоимости владения (TCO) по сравнению с решением WAN, управляемым клиентом (с учётом брандмауэров). Компания отметила, что быстрое развитие ИИ-технологий предъявило дополнительные требования к корпоративным сетям. ИИ-приложения требуют высокораспределённой инфраструктуры. Cloud WAN предлагает унифицированное корпоративное сетевое решение для безопасного и надёжного подключения между любыми корпоративными локациями, приложениями и пользователями, помогая при этом обеспечивать оптимальную производительность и сокращать расходы, говорит Google. Cloud WAN обеспечивает два основных варианта использования: предоставление высокопроизводительного подключения между географически распределёнными ЦОД организаций, которым необходимо надёжно и экономически эффективно передавать значительные объёмы данных, и подключение филиалов и кампусов через сеть Premium Tier. В первом случае Cloud WAN предлагает несколько сервисов. В рамках Cloud Interconnect предлагаются прямые соединения с низкой задержкой между облачными регионами и собственными ЦОД заказчика в 159 точках по всему миру. Cross-Cloud Interconnect обеспечивает связь облачных регионов Google Cloud Platform с регионами AWS, Microsoft Azure и Oracle Cloud Infrastructure в 21 точке по всему миру. Новая функция Cross-Site Interconnect, которая пока доступна только в некоторых странах в режиме превью, предлагает L2-соединения «точка-точка» между ЦОД заказчика на скорсти 10 Гбит/с или 100 Гбит/с. Така функциональность, по словам Google, нужна для государственных учреждений, операторов связи и предприятий, которым требуется прозрачное L2-подключение. Трафик идёт по каналам с резервированием, так что в случае сбоя какого-либо участка ВОЛС он будет автоматически направлен по другому физическому маршруту. Кроме того, в рамках NCC (Network Connectivity Center) доступна и L3-маршрутизация. Второй вариант использования Cloud WAN — сеть Premium Tier. Она ориентирована на защищённое подлючение филиалов к публичным облакам, ЦОД заказчика и публичному интернету с низкой задержкой. NCC действует как централизованный концентратор, работающий с Cloud VPN и решениями SD-WAN от сторонних поставщиков. NCC доступен в 20 странах мира. В данном случае присоединение к Cloud WAN происходит в географически ближайшей точке доступа. В 2025 году в некоторых регионах Lumen предложит выделенное оптическое подключение («последнюю милю») к Cloud WAN. Lumen также строит выделенные ВОЛС для AWS, Meta✴ и Microsoft.
13.04.2025 [23:54], Владимир Мироненко
ИИ-агенты под присмотром: Google Distributed Cloud заработает на on-premise платформах NVIDIA Blackwell DGX/HGX
b200
dgx
google cloud platform
hardware
hgx
nvidia
гибридное облако
ии
ии-агент
инференс
конфиденциальность
облако
частное облако
NVIDIA объявила о стратегическом партнёрстве с Google Cloud с целью внедрения агентного ИИ на предприятиях, которые хотели бы локально использовать семейство моделей Google Gemini с помощью платформ NVIDIA Blackwell HGX/DGX, а также функции NVIDIA Confidential Computing для повышения безопасности данных. Интеграция платформы NVIDIA Blackwell с портфелем программно-аппаратных решений Google Distributed Cloud позволяет локальным ЦОД соответствовать нормативным требованиям и законам о суверенитете данных, блокируя доступ к конфиденциальной информации, включая истории болезни пациентов, финансовые транзакции и секретную правительственную информацию. NVIDIA Confidential Computing защищает конфиденциальный код в моделях Gemini от несанкционированного доступа и утечек данных — запросы пользователя к API Gemini, а также данные, которые они использовали для тонкой настройки, остаются в безопасности и защищены от несанкционированного доступа или изменений. Сачин Гупта (Sachin Gupta), вице-президент и генеральный менеджер по инфраструктуре и решениям в Google Cloud, отметил, что партнёрство позволяет предприятиям в полной мере использовать весь потенциал агентного ИИ, внедряя модели Gemini в локальные системы, и объединяя производительность NVIDIA Blackwell и возможности конфиденциальных вычислений. Хотя многие уже могут использовать модели с мультимодальным рассуждением — интегрируя текст, изображения, код и другие типы данных для решения сложных проблем и создания облачных приложений агентного ИИ, предприятия с повышенными требованиями к безопасности или суверенитету данных столкнулись с трудностями при внедрении этих технологий. Данное партнёрство позволит решить эти проблемы, благодаря чему Google Cloud становится одним из первых поставщиков, предлагающих возможности конфиденциальных вычислений для защиты рабочих нагрузок ИИ-агентов в любой среде, как облачной, так и гибридной. Масштабирование агентного ИИ требует надёжного мониторинга и безопасности для обеспечения стабильной производительности и соответствия требованиям. Google Cloud представила новый шлюз GKE Inference Gateway, созданный для оптимизации развёртывания рабочих нагрузок ИИ-агентов с расширенной маршрутизацией и масштабируемостью. Интеграция с NVIDIA Triton Inference Server и NVIDIA NeMo Guardrails обеспечивает интеллектуальную балансировку нагрузки, которая повышает производительность и снижает затраты на обслуживание, также обеспечивая централизованную безопасность и управление моделями. В дальнейшем Google Cloud планирует улучшить отслеживания рабочих нагрузок агентского ИИ, интегрировав NVIDIA Dynamo, библиотеку с открытым исходным кодом, предназначенную для обслуживания и масштабирования рассуждающих моделей. Этот перспективный подход гарантирует, что предприятия смогут уверенно масштабировать свои приложения агентского ИИ, сохраняя при этом безопасность и соответствие требованиям.
11.04.2025 [16:08], Руслан Авдеев
Axiom Space планирует развернуть в космосе два узла ЦОД Orbital Data Center к концу 2025 годаAxiom Space, довольно давно сообщившая о планах построить космический дата-центр Orbital Data Center (ODC), поделилась планами на ближайшее будущее. Первые узлы в космосе она намерена построить уже к концу 2025 года, сообщает пресс-служба компании. По данным The Register, стартап также планирует создать собственную космическую станцию и использовать капсулы SpaceX для пилотируемых миссий. Узлы, которые станут частью оптической лазерной сети Kepler Communications, смогут действовать независимо от наземной инфраструктуры и, наряду с другими «умными» спутниками, способны проводить на борту довольно сложные вычисления и хранить данные. Как обещает Axiom, ODC предоставит безопасную и масштабируемую облачную платформу. Космический ЦОД сможет поддерживать задачи, связанные с ИИ и машинным обучением, работая напрямую со спутниками, их группировками и прочими космическими аппаратами на околоземной орбите. По словам представителя Axiom, компания работает над ODC с момента тестирования на МКС модуля AWS Snowcone, предназначенного для сбора, хранения и передачи данных, а также их периферийной обработки. С тех пор компания провела серию демонстраций независимых от Земли облачных решений. В скором будущем на МКС планируют отправить устройство AxDCU-1 на базе решений Red Hat. В 2023 году Axiom Space анонсировала планы демонстрации высокоскоростной оптической межспутниковой связи (OISL) в первом модуле коммерческой космической станции компании. Впрочем, отправка модулей в космос постоянно откладывается. В конце 2024 года Axiom Space изменила планы порядка сборки космической станции. Теперь первым на орбиту должны вывести Payload Power Thermal Module (AxPPTM), следом — жилой модуль для того, чтобы побыстрее избавиться от зависимости от МКС. Первую серию спутников Kepler для космической оптической связи планируется запустить в IV квартале 2025 года. По данным самой Kepler, Axiom заключила с ней соглашение о размещении полезной нагрузки — своих первых вычислительных модулей — на двух аппаратах Kepler. Узлы ODC будут обеспечены оптической связью со скоростью до 2,5 Гбит/с с группировкой Kepler на низкой околоземной орбите и другими аппаратами, совместимыми со стандартами космической связи SDA Tranche 1. По мнению экспертов, за последние несколько лет развитие оптической связи в космосе получило большой импульс на фоне значительных инвестиций в отрасль коммерческих структур, Пентагона и NASA. В дальнейшем планируется интегрировать в систему оптической связи новые OISL-решения со скоростями передачи данных от 10 Гбит/с, а также использовать оптические модули для связи будущих узлов ODC с Землёй. Это позволит упростить коммуникации между группировками спутников и наземными станциями связи.
10.04.2025 [19:31], Руслан Авдеев
ИИ-континент: Евросоюз намерен как минимум утроить ёмкость дата-центров в ближайшие годыВ следующие пять-семь лет Евросоюз намеревается более чем втрое нарастить ёмкость своих дата-центров. Это позволит снизить зависимость от вычислительных мощностей, находящихся в других регионах мира, сообщает Computer Weekly, и сформировать крупный единый рынок общим набором «правил безопасности», которые обеспечат ИИ-технологий. Основные векторы развития подробно изложены в проекте ЕС AI Continent Action Plan. В проекте документа заявляется, что сейчас ЕС отстаёт по объёму доступных мощностей ЦОД от США и Китая, в значительной степени используя облачную инфраструктуру из других регионов мира. Это вызывает обеспокоенность у бизнеса и политиков. Для того, чтобы удовлетворить потребности предприятий и государственных органов в ИИ и вычислениях в целом, а также обеспечить суверенитет и конкурентоспособность, предлагается наращивать собственные облачные мощности и мощности ЦОД вообще. Для этого проводятся консультации по разработке «Закона о развитии облачных технологий и ИИ» (Cloud and AI Development Act), который позволит ускоренно строить новые ЦОД в Евросоюзе. В документе указывается, что сегодня среднее время получения разрешения на строительство и эколицензий в Европе часто превышает 48 месяцев, при этом площадки для строек и энергию ещё поискать надо. Новый закон должен устранить препятствия. Проектам ЦОД, соответствующим требованиям по эффективному использованию энергии и воды, разрешения будут выдавать в упрощённом порядке. Также предполагается «улучшить» конкуренцию на рынке облачных услуг, предоставив возможность выхода на него большему числу облачных провайдеров. Эти и другие действия — часть проекта Евросоюза по созданию собственного, особого подхода к развитию искусственного интеллекта, основанного на сильных сторонах объединения, позволяющих превратить ЕС в «континент ИИ». ![]() Источник изображения: Maks Key/unsplash.com В документе упоминается, что в ЕС действуют 6300 стартапов в области ИИ, более 600 из них работают над созданием систем генеративного ИИ. Тем не менее, нужно принимать меры, чтобы обеспечить компании и исследователей ресурсами, необходимые для успешной реализации проектов. Для этого необходимо будет расширить общедоступную ИИ-инфраструктуру с созданием «гигафабрик» с энергоэффективными и высокопроизводительными вычислительными системами, которые можно будет объединить в сети. ЕС уже обязался выделить €20 млрд на финансирование ИИ-инфраструктуры, чтобы частично компенсировать расходы на создание в Европе пяти ИИ-фабрик, также стороны приглашаются к созданию государственно-частных партнёрств для ускоренного строительства соответствующих объектов. Гигафабрики станут своеобразными центрами притяжения для сотрудничества исследователей, предпринимателей и инвесторов в проектах разной направленности, от здравоохранения до робототехники и науки в целом. Превращение Евросоюза в «ИИ-сверхдержаву» также потребует доступа к более качественным данным, и активной разработки ИИ в самом ЕС, а также поощрения внедрения ИИ-систем в стратегически важных секторах. Также в документе упоминается необходимость наращивания базы талантов в сфере искусственного интеллекта — этого можно будет добиться, упростив легальную миграцию профильных квалифицированных специалистов. Документ ЕС во многом перекликается с недавно представленным проектом превращения Великобритании в «ИИ-сверхдержаву». В частности, там тоже намерены стимулировать инновации в области ИИ, наращивать вычислительные и энергетические мощности и др.
09.04.2025 [17:48], Руслан Авдеев
ИИ Google Gemini поможет переписать приложения для мейнфреймов и перенести их в облакоНезадолго до анонса новых мейнфреймов IBM z17 компания Google анонсировала новые ИИ-инструменты на основе моделей Gemini и других технологий для модернизации инфраструктуры и переносу нагрузок с в облако Google Cloud. Google Cloud Mainframe Assessment Tool (MAT) на основе ИИ-моделей Gemini уже доступен. Инструмент позволяет оценить и проанализировать общее состояние мейнфреймов, включая приложения и данные. Это даст возможность принимать информированные решения по оптимальной модернизации. MAT обеспечивает глубокий анализ кода, генерирует чёткие объяснения его работы, автоматизирует создание документации и др. Это позволяет ускорить понимание кода мейнфреймов и стимулирует процесс модернизации. Google Cloud Mainframe Rewrite на основе моделей Gemini позволяет модернизировать приложения для мейнфреймов (инструмент доступен в превью-режиме). Он помогает разработчикам переосмыслить и преобразовать код для мейнфреймов, переписав его на современные языки программирования вроде Java и C#. Mainframe Rewrite предлагает IDE для модернизации кода, тестирования и развёртывания модернизированных приложений в Google Cloud. Наконец, чтобы снизить риски, возникающие при модернизации, предлагается инструмент Google Cloud Dual Run для глубокого тестирования, сертификации и оценки модернизированных приложений. Инструмент позволяет проверить корректность, полноту и производительность модернизированного кода в ходе миграции и до того, как новое приложение заменит старое. Dual Run сравнивает данные, выдаваемые старой и новой системами, для поиска отличий. Имеются и дополнительные инструменты, разработанные партнёрами Google. Так, Mechanical Orchard предлагает платформу для быстро переписывания приложений на COBOL на современные языки, включая Java, Python и др., без изменения бизнес-логики. Решение позволяет «пошагово» переписывать фрагменты приложений с помощью систем генеративного ИИ с сохранением функциональности и тестировать корректность их работы. Основная цель — создать для облака функциональный эквивалент устаревших решений. Кроме того, в рамках новой программы Google Mainframe Modernization with Gen AI Accelerator компания привлекла Accenture, EPAM и Thoughtworks, которые помогут организациям мигрировать с мейнфреймов. На первом этапе производится анализ кода с помощью MAT и Gemini. На втором реализуется пилотный проект с проверкой работоспособности нового кода. На третьем осуществляется полномасштабная миграция в облако. Первые клиенты могут бесплатно (без учёта расходов на Google Cloud) оценить решения в течение 4-8 недель. Мейнфреймы ещё рано списывать со счетов. Согласно данным опроса Kyndryl 500 топ-менеджеров ИТ-индустрии, многие организации интегрируют мейнфреймы с публичными и частными облачными платформами и совершенствуют свои программы модернизации, перемещая некоторые рабочие нагрузки с мейнфреймов или обновляя их. |
|