Материалы по тегу: software

24.03.2025 [01:37], Владимир Мироненко

NVIDIA анонсировала ИИ-модели Llama Nemotron с регулируемым «уровнем интеллекта»

NVIDIA анонсировала новое семейство ИИ-моделей Llama Nemotron с расширенными возможностями рассуждения. Основанные на моделях Llama с открытым исходным кодом от Meta Platforms, модели от NVIDIA предназначены для предоставления разработчикам основы для создания продвинутых ИИ-агентов, которые могут от имени своих пользователей независимо или с минимальным контролем работать в составе связанных команд для решения сложных задач.

«Агенты — это автономные программные системы, предназначенные для рассуждений, планирования, действий и критики своей работы», — сообщила Кари Бриски (Kari Briski), вице-президент по управлению программными продуктами Generative AI в NVIDIA на брифинге с прессой, пишет VentureBeat. «Как и люди, агенты должны понимать контекст, чтобы разбивать сложные запросы, понимать намерения пользователя и адаптироваться в реальном времени», — добавила она. По словам Бриски, взяв Llama за основу, NVIDIA оптимизировала модель с точки зрения требований к вычислениям, сохранив точность ответов.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

NVIDIA сообщила, что улучшила новое семейство моделей рассуждений в ходе дообучения, чтобы улучшить многошаговые математические расчёты, кодирование, рассуждения и принятие сложных решений. Это позволило повысить точность ответов моделей до 20 % по сравнению с базовой моделью и увеличить скорость инференса в пять раз по сравнению с другими ведущими рассуждающими open source моделями. Повышение производительности инференса означают, что модели могут справляться с более сложными задачами рассуждений, имеют расширенные возможности принятия решений и позволяют сократить эксплуатационные расходы для предприятий, пояснила компания.

Модели Llama Nemotron доступны в микросервисах NVIDIA NIM в версиях Nano, Super и Ultra. Они оптимизированы для разных вариантов развёртывания: Nano для ПК и периферийных устройств с сохранением высокой точности рассуждения, Super для оптимальной пропускной способности и точности при работе с одним ускорителем, а Ultra — для максимальной «агентской точности» в средах ЦОД с несколькими ускорителями.

Как сообщает NVIDIA, обширное дообучение было проведено в сервисе NVIDIA DGX Cloud с использованием высококачественных курируемых синтетических данных, сгенерированных NVIDIA Nemotron и другими открытыми моделями, а также дополнительных курируемых наборов данных, совместно созданных NVIDIA. Обучение включало 360 тыс. часов инференса с использованием ускорителей H100 и 45 тыс. часов аннотирования человеком для улучшения возможностей рассуждения. По словам компании, инструменты, наборы данных и методы оптимизации, используемые для разработки моделей, будут в открытом доступе, что предоставит предприятиям гибкость в создании собственных пользовательских рвссуждающих моделей.

Одной из ключевых функций NVIDIA Llama Nemotron является возможность включать и выключать опцию рассуждения. Это новая возможность на рынке ИИ, утверждает компания. Anthropic Claude 3.7 имеет несколько схожую функциональность, хотя она является закрытой проприетарной моделью. Среди моделей с открытым исходным кодом IBM Granite 3.2 тоже имеет переключатель рассуждений, который IBM называет «условным рассуждением».

Особенность гибридного или условного рассуждения заключается в том, что оно позволяет системам исключать вычислительно затратные этапы рассуждений для простых запросов. NVIDIA продемонстрировала, как модель может задействовать сложные рассуждения при решении комбинаторной задачи, но переключаться в режим прямого ответа для простых фактических запросов.

NVIDIA сообщила, что целый ряд партнёров уже использует модели Llama Nemotron для создания новых мощных ИИ-агентов. Например, Microsoft добавила Llama Nemotron и микросервисы NIM в Microsoft Azure AI Foundry. SAP SE использует модели Llama Nemotron для улучшения возможностей своего ИИ-помощника Joule и портфеля решений SAP Business AI. Кроме того, компания использует микросервисы NVIDIA NIM и NVIDIA NeMo для повышения точности завершения кода для языка ABAP.

ServiceNow использует модели Llama Nemotron для создания ИИ-агентов, которые обеспечивают повышение производительности и точности исполнения задач предприятий в различных отраслях. Accenture сделала рассуждающие модели NVIDIA Llama Nemotron доступными на своей платформе AI Refinery. Deloitte планирует включить модели Llama Nemotron в свою недавно анонсированную платформу агентского ИИ Zora AI. Atlassian и Box также работают с NVIDIA, чтобы гарантировать своим клиентам доступ к моделям Llama Nemotron.

Постоянный URL: http://servernews.kz/1120173
21.03.2025 [19:13], Руслан Авдеев

Стартап Nerdio, развивающий систему управления VDI в Microsoft Azure, привлёк $500 млн, а его капитализация выросла до $1 млрд

Стартап Nerdio Inc., обеспечивающий компаниям работу с виртуальными рабочими столами в облаке Microsoft Azure, привлёк $500 млн новых инвестиций в раунде серии C. Капитализация разработчика ПО достигла $1 млрд, что в четыре раза больше, чем два года назад, сообщает Silicon Angle. Продукты Nerdio используют 15 тыс. организаций, в 2022 году речь шла о 5 тыс. Среди клиентов — Comcast, PayPal и другие крупные компании.

Платформа доступна в Azure Marketplace. В Nerdio утверждают, что это позволит избежать долгих процедур, сопровождающих корпоративные закупки ПО. Платформа может работать напрямую в облачных средах клиентов, что помогает повысить уровень безопасности. Платформа интегрирована в два VDI-сервиса Azure: AVD (Azure Virtual Desktop) и Windows 365.

Nerdio обещает упростить процесс создания виртуальных рабочих столов. По данным компании, в некоторых случаях первоначальная настройка и развёртывание занимают недели. Платформа компании ускоряет процесс в отдельных случаях на 80 %. Платформа включает инструменты, которые упрощают выявление проблем с производительностью виртуальных рабочих столов, а также отключают аккаунты, демонстрирующие потенциально вредоносное поведение.

 Источник изображения: Nerdio

Источник изображения: Nerdio

Встроенный инструмент автоматического масштабирования поможет снизить использование инфраструктуры. Эта функция позволяет автоматически назначить оборудование для выполнения задач в том объёме, в котором это действительно необходимо. В компании считают, что её ПО может снизить стоимость вычислений и хранения данных на 80 % при лучшем сценарии.

Компания сохранила прибыльность и, как сообщает её пресс-служба, расширила присутствие в регионах EMEA и APAC. Теперь она намерена использовать полученные средства, чтобы нанять новых разработчиков для расширения функциональности платформы.

Постоянный URL: http://servernews.kz/1120125
21.03.2025 [10:09], Владимир Мироненко

«ОС» для ИИ-фабрик: NVIDIA Dynamo ускорит инференс и упростит масштабирование рассуждающих ИИ-моделей

NVIDIA представила NVIDIA Dynamo, преемника NVIDIA Triton Inference Server — программную среду с открытым исходным кодом для разработчиков, обеспечивающую ускорение инференса, а также упрощающую масштабирование рассуждающих ИИ-моделей в ИИ-фабриках с минимальными затратами и максимальной эффективностью. Глава NVIDIA Дженсен Хуанг (Jensen Huang) назвал Dynamo «операционной системой для ИИ-фабрик».

NVIDIA Dynamo повышает производительность инференса, одновременно снижая затраты на масштабирование вычислений во время тестирования. Сообщается, что благодаря оптимизации инференса на NVIDIA Blackwell эта платформа многократно увеличивает производительность рассуждающей ИИ-модели DeepSeek-R1.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Платформа NVIDIA Dynamo, разработанная для максимизации дохода от токенов для ИИ-фабрик (ИИ ЦОД), организует и ускоряет коммуникацию инференса на тысячах ускорителей, и использует дезагрегированную обработку данных для разделения фаз обработки и генерации больших языковых моделей (LLM) на разных ускорителях. Это позволяет оптимизировать каждую фазу независимо от её конкретных потребностей и обеспечивает максимальное использование вычислительных ресурсов.

При том же количестве ускорителей Dynamo удваивает производительность (т.е. фактически доход ИИ-фабрик) моделей Llama на платформе NVIDIA Hopper. При запуске модели DeepSeek-R1 на большом кластере GB200 NVL72 благодаря интеллектуальной оптимизации инференса с помощью NVIDIA Dynamo количество генерируемых токенов на каждый ускоритель токенов увеличивается более чем в 30 раз, сообщила NVIDIA.

NVIDIA Dynamo может динамически перераспределять нагрузку на ускорители в ответ на меняющиеся объёмы и типы запросов, а также закреплять задачи за конкретными ускорителями в больших кластерах, что помогает минимизировать вычисления для ответов и маршрутизировать запросы. Платформа также может выгружать данные инференса в более доступную память и устройства хранения данных и быстро извлекать их при необходимости.

NVIDIA Dynamo имеет полностью открытый исходный код и поддерживает PyTorch, SGLang, NVIDIA TensorRT-LLM и vLLM, что позволяет клиентам разрабатывать и оптимизировать способы запуска ИИ-моделей в рамках дезагрегированного инференса. По словам NVIDIA, это позволит ускорить внедрение решения на различных платформах, включая AWS, Cohere, CoreWeave, Dell, Fireworks, Google Cloud, Lambda, Meta, Microsoft Azure, Nebius, NetApp, OCI, Perplexity, Together AI и VAST.

NVIDIA Dynamo распределяет информацию, которую системы инференса хранят в памяти после обработки предыдущих запросов (KV-кеш), на множество ускорителей (до тысяч). Затем платформа направляет новые запросы на те ускорители, содержимое KV-кеша которых наиболее близко к новому запросу, тем самым избегая дорогостоящих повторных вычислений.

NVIDIA Dynamo также обеспечивает дезагрегацию обработки входящих запросов, которое отправляет различные этапы исполнения LLM — от «понимания» запроса до генерации — разным ускорителям. Этот подход идеально подходит для рассуждающих моделей. Дезагрегированное обслуживание позволяет настраивать и выделять ресурсы для каждой фазы независимо, обеспечивая более высокую пропускную способность и более быстрые ответы на запросы.

NVIDIA Dynamo включает четыре ключевых механизма:

  • GPU Planner: механизм планирования, который динамически меняет количество ускорителей в соответствии с меняющимися запросами, устраняя возможность избыточного или недостаточного выделения ресурсов.
  • Smart Router: маршрутизатор для LLM, который распределяет запросы по большим группам ускорителей, чтобы минимизировать дорогостоящие повторные вычисления повторяющихся или перекрывающихся запросов, высвобождая ресурсы для обработки новых запросов.
  • Low-Latency Communication Library: оптимизированная для инференса библиотека, которая поддерживает связь между ускорителями и упрощает обмен данными между разнородными устройствами, ускоряя передачу данных.
  • Memory Manager: механизм, который прозрачно и интеллектуально загружает, выгружает и распределяет данные инференса между памятью и устройствами хранения.

Платформа NVIDIA Dynamo будет доступна в микросервисах NVIDIA NIM и будет поддерживаться в будущем выпуске платформы NVIDIA AI Enterprise.

Постоянный URL: http://servernews.kz/1120076
19.03.2025 [17:34], Руслан Авдеев

Google купит стартап Wiz за баснословные $32 млрд

Компания Google объявила о покупке стартапа Wiz Inc., работающего в области информационной безопасности, за $32 млрд., что станет крупнейшей сделкой в истории Google. При этом Wiz в ходе последнего раунда инвестиций в прошлом году была оценена в $12 млрд. Тогда же Google предложила Wiz $23 млрд, но стартап отказался от сделки, заявив о намерении выйти на IPO, сообщает Silicon Angle.

Согласно обновлённым данным, Google согласилась выплатить Wiz $3,2 млрд, если сделка не состоится. Например, если ей воспрепятствует один из регуляторов. Некоторые эксперты считают, что именно боязнью блокировки сделки вызван отказ руководства Wiz продать компанию в 2024 году. По слухам, условия новой сделки предполагают, что стартап сможет продолжить действовать независимо в случае, если антимонопольное разбирательство вдруг затянется.

Wiz была основана в 2020 году. Двумя годами позже годовая регулярная выручка компании достигла $100 млн, а не так давно, по слухам, выросла до $700 млн. Компания утверждает, что более половины компаний из списка Fortune 100 использует её платформу для обеспечения кибербезопасности. ПО помогает компаниям устранять уязвимости в облачных средах, защищать код разработчиков и отражать кибератаки.

 Источник изображения: Google

Источник изображения: Google

Компания предлагает несколько ключевых продуктов. Wiz Cloud обнаруживает уязвимости вроде неверной конфигурации облачных сред, выявляет известные эксплойты и слабости систем контроля доступа. Wiz Defend обнаруживает и блокирует кибератаки с использованием eBPF-сенсора и аудита логов. Wiz Defend собирает подробные данные об инцидентах безопасности и получает информацию о потенциальных уязвимостях из других источников. Wiz Code умеет выявлять уязвимости напрямую в редакторе кода и даёт советы по их устранению.

Инструменты Wiz доступны во всех крупнейших публичных облаках. Google объявила, что не планирует менять подобную практику после покупки. Согласно данным в блоге Google, Wiz сохранит совместимость со всеми конкурирующими облаками, а Google Cloud Marketplace по-прежнему будет предлагать защитные инструменты, созданные сторонними разработчиками.

 Источник изображения: Sigmund/unsplash.com

Источник изображения: Sigmund/unsplash.com

При этом IT-гигант выразил намерение разработать «унифицированную платформу для обеспечения кибербезопасности», объединив технологии Wiz с решениями Google Security Operations, которые позволяют проводить аудит безопасности и автоматизировать реакцию на кибератаки.

Wiz — не первая многомиллиардная покупка Google в области кибербезопасности. В 2022 году приобрела за $5,4 млрд провайдера защитных сервисов Mandiant. Кроме того, около десяти лет назад внутренний проект компании BeyondCorp помог принятию принципа «нулевого доверия» для любых устройств. Также компания известна разработкой фреймворка SLSA для безопасной разработки ПО. Сделку по покупке Wiz планируется закрыть в 2026 году, пока она ожидает одобрения регуляторов.

Постоянный URL: http://servernews.kz/1119981
17.03.2025 [17:23], Руслан Авдеев

Ежегодные расходы техногигантов на ИИ превысят $500 млрд, но большая часть денег пойдёт на инференс, а не на обучение моделей

Крупнейшие IT-компании нарастят ежегодные расходы на ИИ-технологии — в совокупности они превысят $500 млрд уже в следующем десятилетии. Одной из причин роста инвестиций в ИИ станет новый подход к разработкам со стороны китайской DeepSeek и OpenAI, сообщает Bloomberg Intelligence.

Группа гиперскейлеров, включая Microsoft, Amazon и Meta намерена потратить $371 млрд на ЦОД и вычислительные ресурсы для ИИ в 2025 году, на 44 % больше, чем годом ранее. К 2032 году затраты вырастут до $525 млрд — быстрее, чем ожидали в Bloomberg Intelligence до того, как недавно «выстрелили» продукты DeepSeek.

До недавних пор большая часть инвестиций в ИИ уходила на дата-центры и чипы, которые использовались для обучения или разработки новых, всё более крупных ИИ-моделей. Теперь компании намерены больше тратить на инференс. Изменение стратегии ускорилось после выпуска «рассуждающих» моделей компаний OpenAI и DeepSeek. У этих систем уходит больше времени на ответы на запросы пользователей, при этом они требуют больше ресурсов на инференс.

Неожиданный для многих успех DeepSeek, которая, как утверждается, создала чрезвычайно недорогую и конкурентоспособную модель на уровне современных продуктов западных конкурентов (с оговорками), вызвал вопросы об эффективности инвестиций в США. Эксперты оценивают, стоило ли вкладывать огромные средства в укрупнение моделей. Некоторые компании уже стали внедрять эффективные LLM, работающие на относительно небольшом числе ускорителей.

 Источник изображения: The Drink/unspalsh.com

Источник изображения: The Drink/unspalsh.com

По данным Bloomberg, «рассуждающие» модели обеспечивают новые возможности для заработка на ПО и потенциально обходятся дороже на этапе инференса, чем на этапе обучения. Это, похоже, приведёт к наращиванию инвестиций в соответствии с новой концепцией и приведёт к росту вложений в ИИ в целом.

Рост капитальных затрат на обучение ИИ, как считают в Bloomberg, может быть заметно медленнее, чем предсказывалось ранее. Огромное внимание, которое привлекла DeepSeek, вероятно, заставит технологические фирмы нарастить инвестиции в инференс — именно он станет самым быстрорастущим сегментом на рынке систем генеративного ИИ. Похожие прогнозы давала и Omdia.

Хотя в текущем году затраты на связанные с обучением задачи, вероятно, составят более 40 % расходов гиперскейлеров на ИИ, сегмент, как ожидается, уменьшится к 2032 году до всего 14 %. В том же году связанные с инференсом инвестиции могут составить около половины всех расходов на ИИ. Как считают в Bloomberg, наилучшие позиции среди гиперскейлеров у Google. У неё TPU собственной разработки, которые можно использовать как для обучения, так и для инференса. Другие компании, вроде Microsoft и Meta, сильно зависят от NVIDIA и могут оказаться не столь гибкими в гонке по новым правилам.

Постоянный URL: http://servernews.kz/1119852
13.03.2025 [23:30], Владимир Мироненко

Бывший глава Google предупредил об опасности стремления США к доминированию в области ИИ

Бывший глава Google Эрик Шмидт (Eric Schmidt) опубликовал статью «Стратегия сверхразума» (Superintelligence Strategy), написанную в соавторстве с Дэном Хендриксом (Dan Hendrycks), директором Центра безопасности ИИ, и Александром Вангом (Alexandr Wang), основателем и генеральным директором Scale AI, в которой высказывается мнение о том, что США следует воздержаться от реализации аналога «Манхэттенского проекта» для достижения превосходства в области ИИ, поскольку это спровоцирует упреждающие киберответы со стороны, например, Китая, пишет The Register.

Авторы статьи утверждают, что любое государство, которое создаст супер-ИИ, будет представлять прямую угрозу для других стран, и они, стремясь обеспечить собственное выживание, будут вынуждены саботировать такие проекты ИИ. Любая «агрессивная попытка одностороннего доминирования в области ИИ приведёт к превентивному саботажу со стороны конкурентов», который может быть реализован в виде шпионажа, кибератак, тайных операций по деградации обучения моделей и даже прямого физического удара по ИИ ЦОД.

Авторы считают, что в области ИИ мы уже близки к доктрине взаимного гарантированного уничтожения (Mutual Assured Destruction, MAD) времён Холодной войны. Авторы дали нынешнему положению название «гарантированное взаимное несрабатывание ИИ» (Mutual Assured AI Malfunction, MAIM), при котором проекты ИИ, разрабатываемые государствами, ограничены взаимными угрозами саботажа.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

Вместе с тем ИИ, как и ядерные программы в своё время, может принести пользу человечеству во многих областях, от прорывов в разработке лекарств до автоматизации процессов производства, использование ИИ важно для экономического роста и прогресса в современном мире. Согласно статье, государства могут выбрать одну из трех стратегий.

  • Полное невмешательстве в деятельность разработчиков ИИ, чипов и моделей.
  • Всемирный добровольный мораторий, призванный остановить дальнейшее развитие ИИ, либо немедленно, либо после обнаружения определённых опасностей, таких как способность ИИ ко взлому или полностью автономной работе.
  • Всеобщая монополия на разработку путём создания международного консорциума на манер ЦЕРН, который возглавит глобальную разработку ИИ.

Комментируя предложение Комиссии по обзору экономики и безопасности США и Китая (USCC) о госфинансирования США своего рода «Манхэттенского проекта» по созданию суперинтеллекта в какому-нибудь укромном уголке страны, авторы статьи предупредили, что Китай отреагирует на этот шаг, что приведёт лишь к длительному дисбалансу сил и постоянной нестабильности.

 Источник: Superintelligence Strategy: Expert Version

Источник: Superintelligence Strategy: Expert Version

Авторы статьи считают, что государства должны отдавать приоритет доктрине сдерживания, а не победе в гонке за искусственный сверхразум. MAIM подразумевает, что попытки любого государства достичь стратегической монополии в области ИИ столкнутся с ответными мерами со стороны других стран, а также приведут к соглашениям, направленным на ограничение поставок ИИ-чипов и open source моделей, которые по смыслу будут аналогичны соглашениям о контроле над ядерным оружием.

Чтобы обезопасить себя от атак на государственном уровне с целью замедлить развитие ИИ, в статье предлагается строить ЦОД в удалённых местах, чтобы минимизировать возможный ущерб, пишет Data Center Dynamics. Тот, кто хочет нанести ущерб работе других стран в сфере ИИ, может начать с кибератак: «Государства могут “отравить” данные, испортить веса и градиенты моделей, нарушить работу ПО, которое обрабатывают ошибки ускорителей и управляет питанием и охлаждением…».

 Источник: Superintelligence Strategy: Expert Version

Источник: Superintelligence Strategy: Expert Version

Снизить вероятность атак поможет и прозрачность разработок. ИИ можно использовать для оценки безопасности других ИИ-проектов, что позволит избежать атак на «гражданские» ЦОД. Вместе с тем не помешает и прозрачность цепочек поставок. Поскольку ИИ-ускорители существуют в реальном, а не виртуальном мире, отследить их перемещение не так уж трудно. Таким образом, даже устаревшие или признанные негодными чипы не смогут попасть на чёрный рынок — их предлагается утилизировать с той же степенью ответственности, что и химические или ядерные материалы.

Впрочем, соблюдение всех этих рекомендаций не устранит главную проблему — зависимость от Тайваня в плане производства передовых чипов, которая является критической для США, говорят авторы статьи. Поэтому западным странам следует разработать гарантированные цепочки поставок ИИ-чипов. Для этого потребуются значительные инвестиции, но это необходимо для обеспечения конкурентоспособности.

Постоянный URL: http://servernews.kz/1119678
11.03.2025 [16:08], Руслан Авдеев

IBM засудила разработчика эмулятора мейнфреймов LzLabs

Компания IBM одержала победу в лондонском суде над LzLabs, разработавшей эмулятор Software Defined Mainframe (SDM) для запуска приложений для мейнфреймов на обычных x86-серверах под управлением Linux. По мнению IBM, LzLabs фактически украла её интеллектуальную собственность и теперь представляет угрозу её бизнесу, сообщает Datacenter Dynamics.

IBM подала в суд на LzLabs и связанные компании несколько лет назад. IT-гигант заявил, что Winsopia — дочерняя структура LzLabs — приобрела у IBM мейнфрейм и сопутствующую лицензию в 2013 году. Позже компания использовала полученные продукты для реверс-инжиниринга — фактически она декомпилировала ПО IBM. В вынесенном в понедельник Высоким судом Лондона вердикте говорится, что швейцарская LzLabs и её владелец Джон Мурс (John Moores) нарушили условия лицензирования, чтобы разработать собственное программное обеспечение для создания относительно недорогой альтернативы мейнфреймам IBM.

По мнению суда, Winsopia нарушила условия лицензирования, а LzLabs и Мурс незаконно способствовали этому. Последний является основателем компании BMC Software, а также контролирует фонд JMI Equity, инвестирующий в IT-бизнесы. Ответчики утверждали, что программное обеспечение их компании разрабатывалось более десяти лет без влияния технологий IBM. LzLabs основали в 2011 году, первый продукт появился в 2016-м. Речь шла о платформе, позволявшей переносить рабочие нагрузки с мейнфреймов (COBOL или PL/I) на x86-серверы под управлением Linux, в том числе в облаках.

С тех пор компания добавила поддержки контейнеризированных рабочих нагрузок, что упрощает перенос приложений с мейнфреймов на современные облачные платформы. Так, швейцарская телеком-компания Swisscom перенесла свои приложения на платформу LzLabs SDM, развёрнутую в облаке, без перекомпиляции исходного кода. Другими словами, LzLabs стала конкурентом IBM в сфере мейнфреймов.

 Источник изображения: IBM

Источник изображения: IBM

Сама IBM «в восторге» от решения британского суда, который признал, что ответчики шли на нарушения систематически и намеренно для получения критически важных технологий IBM для мейнфреймов. При этом IBM вложила в соответствующие решения миллиарды долларов. Дальнейшие слушания состоятся в текущем году — предстоит выяснить, какую компенсацию может получить IBM. Претензии к ещё одной британской дочерней структуре, LzLabs Limited, а также к действующему и бывшему генеральным директорам компании-ответчика отклонены. IBM подала отдельный иск против LzLabs в Техасе в 2022 году, обвинив последнюю в нарушении патентного законодательства. В данном случае IBM требует компенсации ущерба и судебного запрета на использование её интеллектуальной собственности.

Тем временем в США не поддержали иск компании BMC Software к IBM на $1,6 млрд. IBM ещё в 2017 году обвиняли в том, что та незаконно заменила в мейнфреймах AT&T программное обеспечение BMC на собственное. Если в 2022 году суд в Техасе обязал IBM выплатить более миллиарда долларов, то недавно Верховный суд США отклонил это решение после успешной апелляции в 2024 году, постановив, что AT&T по собственному желанию заменила одно ПО на другое и что это не противоречит условиям контракта. Верховный суд отказался рассматривать очередную апелляцию BMC, фактически подтвердив прежнее решение суда.

Постоянный URL: http://servernews.kz/1119534
10.03.2025 [21:36], Руслан Авдеев

Тонущая Atos неожиданно получила «золотой» контракт от британского госбанка

После длительных переговоров французская Atos получила контракт на £474,4 млн ($612 млн) в рамках программы Rainbow Program. Средства будут выделены на развитие IT-инфраструктуры для британского банка по ставке, втрое превышающей объявленную три года назад. При этом средства выделены без конкурсов и тендеров, сообщает The Register. Для «проблемной» Atos новый контракт означает перспективы постоянного дохода в ближайшие годы.

В прошлом месяце британский государственный сберегательный банк «Национальная сберегательная и инвестиционная компания» (National Savings and Investments, NS&I) заключила с Atos контракт на обеспечение работы ряда банковских IT-сервисов с 23 декабря 2024 года по 31 марта 2028 года. В банке объявили, что тендера не проводилось, поскольку удовлетворить потребности организации в виду «крайней срочности, вызванной непредвиденными событиями», способен лишь один поставщик услуг. О каких именно событиях идёт речь, не уточняется.

 Источник изображения: Benjamin Davies/unsplash.com

Источник изображения: Benjamin Davies/unsplash.com

Изначально речь шла о создании ряда банковских систем за £480,3 млн в течение девяти лет (£53,3 млн/год), но в результате Atos получила контракт на три года и три месяца на почти такую же сумму. Новое соглашение является развитием прежней £600-млн сделки с Atos, заключённой в 2013 году сроком на семь лет с возможностью продления ещё на три года за дополнительные £300 млн. В 2023 году NS&I объявила о продлении всё того же контракта до марта 2025 года. Atos была названа предпочтительным поставщиком ещё в декабре 2023 года, но переговоры затянулись, поскольку Atos переживала не лучшие времена.

Теперь же было объявлено, что при заключении последнего контракта конкурентов у Atos не было «по техническим причинам». Фактически Atos и его субподрядчики являются действующими поставщиками ключевых банковских платформ для NS&I, опирающихся на взаимозависимые технологии и ресурсы. Другими словами, выстроить новую банковскую систему будет чрезвычайно сложно, поэтому полагаться по-прежнему можно только на Atos IT Services UK. В NS&I подчёркивают, что «пересборка» всей IT-инфраструктуры, формировавшейся в течение 25 лет, оказалась сложнее, чем ожидалось.

После пересмотра планов NS&I намерена завершить внедрение новых решений к осени 2028 года. При этом перечень работ, порученных Atos стал меньше. Изначально планировалось, что французская будет работать до марта 2032 года с возможностью продления до 2034 года. Теперь же NS&I планирует провести конкурс для выбора нового поставщика, который возьмёт на себя управление обновлёнными банковскими системами после окончания сотрудничества с Atos в марте 2028 году. Параллельно NS&I в рамках Rainbow Program заключила контракты с IBM и Sopra Steria контракты на общую сумму £610 млн ($733 млн). Вместе с тем последний государственный аудит Rainbow Program показал, что «успешная реализация проекта представляется недостижимой».

 Источник изображения:  João Barbosa/unsplash.com

Источник изображения: João Barbosa/unsplash.com

Atos в течение нескольких последних лет проводит реструктуризацию, чтобы справиться с накопившимися долгами. За это время компания сменила семь гендиректоров, неоднократно пыталась продать часть активов, а правительство Франции даже рассматривало возможность национализации компании. Однако нынешняя сделка с NS&I ещё не гарантирует светлое будущее. В 2023 году Atos лишилась £1,5-млрд контракта с британским пенсионным фондом National Employment Savings Trust (Nest). Контракт, рассчитанный на 18 лет, был расторгнут всего через два года после подписания.

Что иногда происходит при попытке сменить одно программное обеспечение на другое, особенно от другого разработчика, можно увидеть на примере муниципалитета Бирмингема. Там планировали заменить ERP-систему SAP на более современное решение Oracle, в результате чего работа чиновников была фактически парализована, город превратился в банкрота, а стоимость проекта выросла в разы.

Постоянный URL: http://servernews.kz/1119479
06.03.2025 [13:20], Руслан Авдеев

Выходящая на IPO компания CoreWeave купит за $1,7 млрд ИИ-разработчика Weights & Biases

CoreWeave Inc., занимающаяся облачной ИИ-инфраструктурой, объявила о намерении приобрести компанию Weights & Biases. Последняя специализируется на разработке ИИ-моделей, цена пока не раскрывается, сообщила The Information. План покупки компания подтвердила почти сразу после публикации — изначально сообщалось, что сделка оценивается в $1,7 млрд.

Weights & Biases из Сан-Франциско привлекла более $250 млн с момента основания в 2017 году и создала платформу с инструментами, ускоряющими разработку ИИ — для управления массивами данных для обучения, тестирования влияния изменений модели на её производительность и др., для устранения технических неполадок. Также компания предлагает и специализированный инструментарий для устранения «галлюцинаций» моделей. Утверждается, что платформу использует более 1 млн ИИ-разработчиков, включая OpenAI, Meta, NVIDIA, Snowflake и Toyota Motor.

 Источник изображения: CoreWeave

Источник изображения: CoreWeave

Благодаря развитой облачной инфраструктуре CoreWeave клиенты компании могут получить доступ к современным ускорителям NVIDIA H100/H200. CoreWeave намерена интегрировать Weights & Biases в свою облачную платформу. Заказчики смогут не просто запускать свои модели в облаке, но и создавать и тестировать собственные. Уже имеющимся клиентам Weights & Biases обещают разрешить развёртывать свои модели где угодно без привязки к инфраструктуре CoreWeave, хотя рассмотрение такой возможности, вероятно, будет «поощряться».

Покупка соответствует «обычным условиям закрытия» сделки и, как ожидается, завершится в I половине 2025 года. Это будет дополнительно способствовать выводу CoreWeave на биржу Nasdaq в конце текущего года. Заявка о выходе на IPO уже подана, бизнес будет торговаться под тикером CRWV. В заявке CoreWeave указывается, что её выручка взлетела на 700 % до $1,92 млрд в 2024 финансовом году. В будущем ожидается ещё больший рост, в «запасе» у CoreWeave есть контракты на сумму более $15 млрд, которые ещё предстоит выполнить. Правда, компания пока всё ещё убыточна, в минувшем году она недосчиталась $863,4 млн.

Постоянный URL: http://servernews.kz/1119312
06.03.2025 [00:21], Владимир Мироненко

Да, платить за Windows Server вчетверо больше — это норма: Microsoft ответила на претензии британского регулятора CMA

Призыв Google и AWS «вмешаться и ограничить цену», которую Microsoft взимает с них за лицензирование своего ПО в их облаках, является одновременно «экстраординарным и беспрецедентным», заявила Microsoft в ответ на публикацию Управлением по конкуренции и рынкам Великобритании (CMA) предварительных выводов по проводимому расследованию конкуренции на облачном рынке страны, сообщил The Register. По словам CMA, ситуация с конкуренцией могла бы быть лучше, но действия Microsoft этому не способствуют.

Microsoft относит AWS и Google к т.н. зарегистрированным поставщикам, так что клиенты, желающие запустить, например, Windows Server не на платформе Azure, должны платить за лицензию в четыре раза больше. Оба поставщика пожаловались CMA, что это ставит их и их клиентов в невыгодное положение. CMA их поддержала, отметив, что «у Microsoft есть возможность и желание чинить AWS и Google препятствия при использования её программных продуктов» и что «такое поведение наносит ущерб конкуренции в сфере облачных сервисов».

Просьбу Amazon и Google к CMA ограничить стоимость использования ПО Microsoft для создания и продажи облачных сервисов своим клиентам и отрегулировать цены на ПО для клиентов Azure редмондская корпорация расценила как «беспрецедентное вмешательство, грубо нарушающее её права на интеллектуальную собственность». «Ни один другой поставщик ПО в отрасли не подвергался бы подобным ограничениям», — заявила Microsoft, отметив, что «единственными бенефициарами этого средства правовой защиты являются Amazon и Google». Правда, клиенты, которые по какой-либо причине не хотят запускать продукты Microsoft в облаке Azure, могут с этим не согласиться, отмечает The Register.

 Источник изображения: Microsoft

Источник изображения: Microsoft

По словам Microsoft, клиенты с устаревшим ПО готовы перенести рабочие нагрузки в облако. Для Microsoft предпочтительно, чтобы они выбирали Azure, но её ПО всё равно в AWS, Google Cloud и других облаках. «Мы конкурируем, чтобы привлечь их бизнес различными способами, включая конкурентное ценообразование. Одним из способов является предоставление постоянной скидки на Azure и компенсации части стоимости Windows Server и SQL Server в случае, когда клиенты разворачивают рабочие нагрузки в Azure, которые частично зависят от этого ПО», — заявила Microsoft, подчеркнув, что именно в этом суть конкуренции, которая несёт только выгоду британским клиентам.

Microsoft предложила CMA сравнить её стратегию с AWS S3, Aurora, DynamoDB и Google BigQuery, Looker, Google Analytics и другими, задав при этом вопрос: «Предоставляют ли AWS и Google лицензии на свое проприетарное ПО своим конкурентам, хоть за какие угодно деньги?». И сразу ответив на него: «Нет». В связи с этим Microsoft заявила, что чувствует себя несправедливо выбранной среди других. Правда, корпорация почему-то умолчала, что у неё самой есть сервисы, работающие исключительно в рамках Azure.

Microsoft вновь заявила, что протесты её основных конкурентов не имеют под собой оснований, поскольку AWS является крупнейшим поставщиком облачных вычислений в Великобритании, где на её долю приходилось до половины от £9 млрд, потраченных клиентами в 2023 году. Доля Microsoft составила от 30 до 40 %. У Google Cloud лишь третья позиция, однако по состоянию на IV квартал прошлого года объём её операций в мире вырос до $36 млрд.

 Источник изображения: Tadas Sar / Unsplash

Источник изображения: Tadas Sar / Unsplash

Microsoft утверждает, что Google «потратила тысячи, если не миллионы долларов на то, чтобы встать на защиту “торговых ассоциаций”, которые, что неудивительно, повторяют её претензии антимонопольным органам и правительственным чиновникам». Тем временем британские компании уже подали коллективный иск к Microsoft, в котором утверждается, что клиенты AWS, Google Cloud Platform и Alibaba Cloud, вынуждены платить больше за лицензии на Windows Server, чем в Azure. В качестве компенсации пострадавшие требуют выплатить £1 млрд.

Наличие платы за уход клиентов с облачных платформ, высокий уровень концентрации рынка и значительные барьеры для при миграции на другую платформу были указаны CMA среди проблем, касающихся всего облачного рынка Великобритании. AWS также подверглась резкой критике, а вот для Google Cloud сделали послабление из-за меньшей доли на рынке. В настоящее время CMA раздумывает, следует ли привлечь Microsoft к ответственности в связи с её практикой лицензирования и сборами за уход на другую платформу. Своё решение регулятор объявит позже в этом году.

Постоянный URL: http://servernews.kz/1119290

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus