Материалы по тегу: разработка

19.03.2024 [01:13], Сергей Карасёв

NVIDIA представила облачную платформу для исследований в сфере 6G

Компания NVIDIA анонсировала облачную исследовательскую платформу 6G Research Cloud, которая призвана помочь в разработке технологий связи следующего поколения. В число первых пользователей и партнёров по экосистеме вошли Ansys, Швейцарская высшая техническая школа Цюриха (ETH Zurich), Fujitsu, Keysight, Nokia, Северо-Восточный университет (Northeastern University), Rohde & Schwarz, Samsung, SoftBank и Viavi.

Утверждается, что 6G Research Cloud предоставляет комплексный набор инструментов для внедрения ИИ в области сетей радиодоступа (RAN). NVIDIA отмечает, что платформа позволяет организациям ускорить развитие сервисов 6G, которые соединят «триллионы устройств» с облачными инфраструктурами, заложив основу для гиперинтеллектуального мира.

NVIDIA 6G Research Cloud состоит из трёх ключевых компонентов. Это, в частности, подсистема NVIDIA Aerial Omniverse Digital Twin for 6G: специализированный «цифровой двойник», позволяющий физически точно моделировать системы 6G — от одной башни до масштабов целого города. Двойник включает в себя программно-определяемые симуляторы RAN и пользовательского оборудования, а также набор реалистичных свойств местности и объектов. Используя систему, исследователи смогут моделировать и создавать алгоритмы работы базовой станции на основе данных, специфичных для конкретной площадки, а также обучать модели в режиме реального времени для повышения эффективности передачи информации.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Ещё один компонент называется NVIDIA Aerial CUDA-Accelerated RAN: это программно-определяемый стек RAN, который предназначен для настройки, программирования и тестирования сетей 6G в режиме реального времени. Третьим элементом является фреймворк NVIDIA Sionna Neural Radio Framework, обеспечивающий бесшовную интеграцию с популярными платформами, такими как PyTorch и TensorFlow. При этом задействованы ускорители NVIDIA на базе GPU для генерации и сбора данных, а также обучения моделей ИИ.

Исследователи могут применять NVIDIA 6G Research Cloud для реализации различных проектов в сфере 6G. Это могут быть сервисы для автономного транспорта, интеллектуальных пространств, расширенной реальности, иммерсивного обучения, коллективной работы и пр.

Постоянный URL: http://servernews.kz/1101849
11.03.2024 [13:39], Сергей Карасёв

Marvell представила 2-нм платформу для создания кастомизированных ЦОД-решений

Компания Marvell Technology объявила о расширении сотрудничества с TSMC с целью создания первой в отрасли технологической платформы, ориентированной на производство кастомизированных изделий для дата-центров по нормам 2 нм. Речь, в частности, идёт об оптимизированных для облака ускорителях, коммутаторах Ethernet и цифровых сигнальных процессорах.

Отмечается, что разработка специализированных решений для ЦОД представляет собой трудоёмкую задачу. Дополнительные сложности создаёт необходимость адаптации под «тонкий» техпроцесс — в данном случае 2-нм методику TSMC. Новая платформа как раз и призвана решить проблемы.

 Источник изображения: Marvell

Источник изображения: Marvell

В основу платформы положен обширный пакет интеллектуальной собственности Marvell, охватывающий полный спектр инфраструктурных компонентов. Это высокопроизводительные решения SerDes со скоростью свыше 200 Гбит/с, процессорные подсистемы, механизмы шифрования, межкристальные структуры, элементы интерконнекта, а также различные интерфейсы физического уровня с высокой пропускной способностью для вычислительных модулей, памяти, сетевых узлов и подсистем хранения данных.

Перечисленные компоненты, по сути, становятся строительными блоками для кластеров ИИ, облачных дата-центров и других инфраструктур, которые применяются для рабочих нагрузок ИИ и задач НРС. Благодаря использованию новой платформы Marvell разработчики смогут ускорить вывод на рынок передовых изделий и многочиповых решений, устраняющих существующие узкие места в ЦОД и поддерживающих самые сложные приложения.

Постоянный URL: http://servernews.kz/1101495
04.03.2024 [17:00], Руслан Авдеев

Евросоюз намерен добиться полупроводникового суверенитета, используя архитектуру RISC-V

В Евросоюзе активно инвестируют в инициативы, призванные обеспечить полупроводниковый суверенитет благодаря использованию открытой архитектуры RISC-V. EE Times сообщает, что инициативу курирует Барселонский суперкомпьютерный центр (Barcelona Supercomputing Center или BSC) — пионер в разработке европейских решений RISC-V.

 Источник изображений: European Processor Initiative (EPI)

Источник изображений: European Processor Initiative (EPI)

Страны ЕС беспокоит полупроводниковая зависимость от иностранных компаний, и это беспокойство усугубляется относительно недавним дефицитом чипов в мире. В то же время за использование в своих решениях архитектуры RISC-V никому не надо платить и ни у кого не нужно получать разрешений на её применение, поэтому технология так привлекательна для разработчиков.

BSC представляет собой один из ведущих исследовательских центров Европы. Он играет ключевую роль в разработке чипов на архитектуре RISC-V и возглавляет несколько проектов, связанных с этой технологией, в частности, European Processor Initiative (EPI). В рамках инициативы EPI стоимостью €70 млн разрабатывается новое поколение высокопроизводительных процессоров. Связанная с BSC компания OpenChip должна найти коммерческое применение разработанным технологиям.

BSC начал создавать собственные чипы семейства Lagarto довольно давно — первые 65-нм варианты представили ещё в мае 2019 года. Сегодня речь идёт уже о четвёртом поколении, которое будет выпускаться в соответствии с 7-нм техпроцессом. Центр работает и с другими европейскими компаниями и исследовательскими организациями над созданием комплексной экосистемы RISC-V, включающей ПО, ОС и компиляторы.

Подобные инициативы должны снизить зависимость Евросоюза от американских и азиатских производителей — отсутствие в ЕС зрелой индустрии высокопроизводительных чипов расценивается как значимая уязвимость. Европа считает, что RISC-V — идеальная платформа для достижения суверенитета, при этом бесплатная. Впрочем, эксперты признают, что о полной независимости не может быть речи из-за сложности экосистемы полупроводниковой индустрии. Но у Европы есть большая база знаний и потенциал разработки новых решений, предпринимаются и шаги к организации производства.

В BSC уже экспериментировали с Arm-процессорами, но после Brexit и приобретения компании Arm группой Softbank, выяснилось, что собственной региональной технологии у ЕС нет, тогда и обратили внимание на общедоступную RISC-V. В 2019 году Еврокомиссию убедили в необходимости начать выпуск чипов на этой архитектуре для суперкомпьютеров. В числе других европейских компаний, предлагающих RISC-V продукты, есть Gaiser, Esperanto Technologies, Semidynamics и Codasip, но они уделяют больше внимания процессорам и ускорителям, а не конечным готовые решения.

По оценкам экспертов, в Евросоюзе компаний, работающих с RISC-V, пока недостаточно. Тем не менее, организаторы новых инициатив предостерегают от нереалистичных ожиданий и призывают к стратегическому сотрудничеству — для производства требуются не только разработки, но и сырьё, высокоточное оборудование, и др. Европа может рассчитывать на выпуск решений в пределах 7-нм, более современные техпроцессы пока слишком дороги. Впрочем, ЕС уже добился значительного прогресса в достижении полупроводникового суверенитета с помощью RISC-V.

Постоянный URL: http://servernews.kz/1101182
29.02.2024 [23:59], Владимир Мироненко

ServiceNow, Hugging Face и NVIDIA представили новое поколение ИИ-моделей StarCoder2 для генерации кода

Компании ServiceNow, Hugging Face и NVIDIA представили семейство общедоступных больших языковых моделей (LLM) StarCoder2 для генерации кода, призванное помочь разработчикам использовать генеративный ИИ для создания корпоративных приложений.

Семейство было разработано NVIDIA в сотрудничестве с исследовательским проектом BigCode, которым управляет ServiceNow, и Hugging Face, разработчиком открытой LLM-платформы. Модели StarCoder2 обучены 619 языкам программирования и могут быть дообучены на собственных данных и встроены в корпоративные приложения для выполнения специализированных задач, таких как генерация кода, управление рабочими процессами, обобщение текста и многое другое. Разработчики могут использовать автодополнение и обобщение кода, извлечение фрагментов кода и другие возможности.

 Источник изображения: Hugging Face

Источник изображения: Hugging Face

Набор StarCoder2 включает три модели: модель с 3 млрд параметров, обученная ServiceNow; модель с 7 млрд параметров, обученная Hugging Face; и модель с 15 млрд параметров, созданная NVIDIA с помощью NVIDIA NeMo. Варианты моделей с меньшим количеством параметров менее требовательны к вычислительной инфраструктуре, при этом модель StarCoder2 с 3 млрд параметров соответствует производительности исходной модели StarCoder с 15 млрд. параметров

В основе StarCoder2 лежит новый набор данных Stack v2, который более чем в 7 раз больше, чем Stack v1. Кроме того, новые модели обучены работе с малораспространёнными языками вроде COBOL, «понимают» математику и могут обсуждать исходный код программ. Пользователи могут дообучить и настроить модели StarCoder2, используя данные, специфичные для отрасли или организации, с помощью NVIDIA NeMo или Hugging Face TRL. Разработчики смогут создавать продвинутых чат-ботов для решения более сложных задач обобщения или классификации и разрабатывать персонализированных помощников по программированию.

 Источник изображения: Hugging Face

Источник изображения: Hugging Face

Разработка ПО стала основной областью использования ИИ, чему отчасти способствовали такие инструменты как GitHub Copilot и AWS CodeWhisperer, отметил ресурс SiliconANGLE. Согласно недавнему опросу GitHub, 91 % разработчиков в США используют ИИ-инструменты для создания кода. Впрочем, опрос, проведённый CoderPad Inc., показал, что почти четверть разработчиков скептически относятся к ценности ИИ в работе, а 28 % и вовсе заявили, что их работодатель запрещает им пользоваться ИИ-инструментами.

В числе причин негативного отношения — опасения, что ИИ-помощники создают неэффективный или уязвимый код, а также крадут интеллектуальную собственность, генерируя код на основе материалов, защищённых авторским правом, которые использовались при обучении модели. Создатели StarCoder2 подчёркивают, что модели были созданы с использованием данных Software Heritage, крупнейшей, по их словам, общедоступной коллекцию исходных кодов.

В целях дальнейшего повышения прозрачности и сотрудничества вспомогательный код модели будет по-прежнему размещаться на странице проекта BigCode на GitHub. Он доступен по лицензии BigCode OpenRAIL-M, обеспечивающей бесплатный доступ и использование. Все модели StarCoder2 также будут доступны для загрузки с Hugging Face, а модель StarCoder2 с 15 млрд параметров доступна в составе NVIDIA AI Foundation.

Постоянный URL: http://servernews.kz/1101041
23.02.2024 [19:06], Сергей Карасёв

Meta✴ ищет в Индии и США специалистов для разработки ИИ-ускорителей и SoC для дата-центров

Компания Meta, по сообщению The Register, опубликовала множество объявлений о поиске специалистов для разработки интегральных схем специального назначения (ASIC). Речь идёт о создании собственных ускорителей для машинного обучения и ИИ, а также SoC для дата-центров.

Сейчас для ИИ-задач Meta массово применяет решения NVIDIA. Кроме того, компания присматривается к ускорителям AMD Instinct MI300. С целью снижения зависимости от сторонних поставщиков и сокращения расходов Meta также проектирует собственные аппаратные компоненты.

В частности, весной прошлого года Meta анонсировала свой первый кастомизированный процессор, разработанный специально для ИИ-нагрузок. Изделие под названием MTIA v1 (Meta Training and Inference Accelerator) представляет собой ASIC в виде набора блоков, функционирующих параллельно. Задействованы 64 вычислительных элемента в виде матрицы 8 × 8, каждый из которых объединяет два ядра RISC-V. Кроме того, компания создала чип MSVP (Meta Scalable Video Processor) для обработки видеоматериалов. В разработке также находятся собственные ИИ-ускорители Artemis.

 Источник изображения: ***

Источник изображения: Meta

Как теперь сообщается, Meta ищет ASIC-инженеров с опытом работы в области архитектуры, дизайна и тестирования. Необходимы специалисты в Бангалоре (Индия) и Саннивейле (Калифорния, США). В некоторых вакансиях работодателем указана собственно Мета, тогда как в других случаях указан Facebook. От кандидатов в числе прочего требуется «глубокий опыт в одной или нескольких ключевых сферах, связанных с созданием сложных SoC для дата-центров». Тестировщикам необходимо иметь опыт проверки проектов для ЦОД, связанных с машинным обучением, сетевыми технологиями и пр.

Некоторые вакансии были впервые опубликованы в соцсети LinkedIn в конце декабря 2023 года и обновлены в феврале нынешнего года. Претендентам обещаны неплохие зарплаты. Для каких именно задач компании Meta требуются аппаратные решения, не уточняется. Но сетевые источники отмечают, что это может быть инференс, создание новых ИИ-платформ и т.п.

Постоянный URL: http://servernews.kz/1100722
15.02.2024 [12:20], Сергей Карасёв

Один из ключевых разработчиков веб-сервера nginx создал альтернативный проект FreeNginx

Максим Дунин, один из ключевых разработчиков популярного веб-сервера nginx, сообщил об уходе из проекта. Вместо этого он начнёт развивать альтернативный продукт под названием FreeNginx. Цель этой инициативы, официально анонсированной 14 февраля 2024 года, заключается в том, чтобы «оградить разработку nginx от произвольного корпоративного влияния».

В открытом письме Дунин отмечает, что компания F5 (владелец nginx) закрыла московский офис в 2022 году, но сам Дунин остался в российской столице. При этом стороны заключили соглашение о том, что он продолжит участвовать в разработке nginx в качестве волонтёра. Так и было практически два года, однако затем произошли изменения на корпоративном уровне.

 Источник изображения: nginx

Источник изображения: nginx

«К сожалению, недавно новый нетехнический менеджмент F5 решил, что лучше знает, как управлять проектами open source. В частности, они решили вмешаться в политику безопасности nginx, реализуемую годами, игнорируя как устоявшиеся нормы, так и позицию разработчиков», — пишет Дунин.

По его словам, с точки зрения F5 как владельца nginx изменения понятны, но они противоречат соглашению о разработке. В этой связи, говорит Дунин, он больше не в состоянии контролировать изменения, вносящиеся в nginx, а поэтому не может рассматривать продукт как бесплатный проект open source, разработанный ради общественного блага.

«Поэтому с сегодняшнего дня я больше не буду участвовать в nginx. Вместо этого я начинаю альтернативный проект, которым будут управлять разработчики, а не корпорации», — заявляет Дунин.

Нужно отметить, что ранее разработчики nginx учредили в России компанию «Веб-Сервер», которая развивает альтернативный проект Angie. У это продукта имеется коммерческая PRO-версия, а сам веб-сервер включён в реестр отечественного ПО.

Постоянный URL: http://servernews.kz/1100294
05.02.2024 [16:38], Андрей Крупин

Система управления проектами «Яга» вошла в реестр отечественного ПО

«Ростелеком» сообщил о включении в реестр отечественного программного обеспечения системы управления проектами «Яга» собственной разработки.

Платформа «Яга» призвана заменить софтверные решения ушедшей из России компании Atlassian (Trello, Jira и Confluence). Система обеспечивает полный жизненный цикл создания продуктов — от идеи до выхода на рынок. Программный комплекс позволяет IT-командам планировать задачи, отслеживать их выполнение, проводить тестирование и контролировать прогресс проекта в режиме реального времени. Благодаря встроенному модулю «Статьи» пользователи могут создавать контент по проекту и делиться знаниями, документацией и инструкциями, что упрощает командную работу.

По словам разработчика, одной из ключевых особенностей «Яги» является её универсальность: платформа может быть использована как IT-командами, так и бизнес-подразделениями, владельцами продуктов, руководителями проектов в различных областях. Решение полностью закрывает потребности «Ростелекома» в автоматизации управления проектами при создании новых продуктов и работы над существующими.

Включение в реестр подтверждает российское происхождение системы управления проектами «Яга», а также позволяет коллективу разработчиков «Ростелекома» рассчитывать на государственные меры поддержки, оказываемой поставщикам отечественного ПО.

Постоянный URL: http://servernews.kz/1099839
31.01.2024 [15:36], Сергей Карасёв

Выстрел в ногу: смена политики доступа к исходному коду RHEL мешает развитию CentOS Stream

Изменения, которые компания Red Hat внесла в политику доступа к исходным кодам дистрибутива Red Hat Enterpise Linux (RHEL), создают непредвиденные сложности для команд разработчиков CentOS Special Interest Group (SIG), о чём сообщает ресурс Phoronix.

В июне 2023 года, напомним, Red Hat объявила о прекращении поддержки публикации исходного кода пакетов уже выпущенных релизов в репозитории CentOS. Публично остаются доступны только репозитории CentOS Stream, «вечной бета-версии» будущих релизов RHEL.

Исходники RHEL хранятся на клиентском портале Red Hat, доступном только при наличии контракта. Участники рынка заявили, что действия Red Hat создают нестабильность и не соответствуют принципам open source. Впоследствии CIQ, Oracle и SUSE создали совместную торговую ассоциацию Open Enterprise Linux Association (OpenELA), чтобы противостоять политике Red Hat.

 Источник изображения: Yang / Unsplash

Источник изображения: Yang / Unsplash

Однако новая практика этой компании продолжает оказывать негативное влияние на деятельность приближенных к ней разработчиков. В частности, группа Kmods SIG, поддерживающая дополнительные модули ядра для CentOS Stream и RHEL, в настоящее время «не может создавать пакеты для Red Hat Enterprise Linux по юридическим причинам». Разработчики пытаются решить этот вопрос с Red Hat и возобновить деятельность «как можно скорее», но конкретные сроки не называются. Со сложностями также столкнулась группа CentOS Hyperscale SIG. Hyperscale SIG теперь опирается на Fedora, а не на дерево CentOS/RHEL.

Постоянный URL: http://servernews.kz/1099563
28.01.2024 [21:40], Сергей Карасёв

Google Cloud и Hugging Face упростят создание и внедрение генеративного ИИ

Компании Google и Hugging Face объявили о новом стратегическом партнёрстве, которое позволит разработчикам использовать облачную инфраструктуру Google Cloud для всех сервисов Hugging Face. Инициатива нацелена на ускорение разработки приложений генеративного ИИ и инструментов машинного обучения.

По условиям соглашения, Google Cloud становится стратегическим облачным партнёром Hugging Face, предоставляя ресурсы для обучения моделей и инференса. Разработчики смогут использовать ИИ-инфраструктуру Google Cloud, включая CPU, тензорные процессоры (TPU) и GPU, для обучения и обслуживания открытых моделей, а также для создания новых приложений генеративного ИИ.

В частности, клиенты получат возможность обучать и настраивать модели Hugging Face с применением Vertex AI — комплексной ИИ-платформы Google Cloud. Разработчики смогут применять фирменные ИИ-ускорители Cloud TPU v5e. В будущем появится поддержка инстансов GCE A3 на базе NVIDIA H100. Говорится о поддержке развёртываний Google Kubernetes Engine (GKE). Для управления и выставления счетов на платформе Hugging Face может использоваться сервис Google Cloud Marketplace.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

Hugging Face, основанная в 2016 году, разрабатывает инструменты для создания приложений с использованием машинного обучения. В частности, она предлагает библиотеку Transformers для работы с ИИ-моделями. Ранее Hugging Face заключила соглашение о сотрудничестве с Dell: стороны помогут корпоративным клиентам в создании, настройке и использовании собственных систем на базе генеративного ИИ.

Постоянный URL: http://servernews.kz/1099420
28.01.2024 [20:59], Сергей Карасёв

Intel и ITRI открыли на Тайване лабораторию по сертификации СЖО для НРС-систем

Тайваньское подразделение корпорации Intel и Научно-исследовательский институт промышленных технологий Тайваня (ITRI) сообщили об открытии совместной лаборатории по сертификации систем охлаждения для HPC-платформ. Новая структура получила название ITRI-Intel.

О планах по запуску лаборатории стороны объявили в конце 2023 года. Тогда говорилось, что Intel расширяет сотрудничество с тайваньскими партнёрами с целью разработки и вывода на рынок передовых систем охлаждения для дата-центров, включая ЦОД, ориентированные на задачи ИИ.

По данным Международного энергетического агентства (IEA), в 2022 году потребление энергии дата-центрами по всему миру колебалось от 0,9 % до 1,3 % от общих энергозатрат. При этом выбросы углекислого газа в сегменте ЦОД составили 0,3 % от глобального объёма. Ожидается, что внедрение новых технологий, включая системы иммерсионного (погружного) охлаждения, поможет поднять энергоэффективность дата-центров и сократить выбросы СО2 в соответствующем сегменте на 45 %.

 Источник изображения:  ITRI-Intel

Источник изображения: ITRI-Intel

Лаборатория ITRI-Intel будет предлагать комплексные услуги по сертификации технологий охлаждения НРС-систем на соответствие международным стандартам. Это, в частности, тестирование свойств материалов, оценка совместимости с серверными компонентами и анализ жизненного цикла. Отмечается также, что ITRI разрабатывает однофазную технологию погружного охлаждения с очень низким энергопотреблением. При этом не используются фторированные растворители (PFAS), которые, как считается, могут оказывать негативное влияние на здоровье людей.

Постоянный URL: http://servernews.kz/1099419

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus