Лента новостей
08.05.2025 [23:59], Владимир Мироненко
Квартальная выручка Arm впервые превысила $1 млрд, но акции упали из-за слабого прогнозаArm Holdings объявила результаты IV квартала и всего 2025 финансового года, завершившегося 31 марта 2025 года. Несмотря на рекордную выручку, впервые в истории компании превысившую $1 млрд за квартал, её акции упали в ходе расширенных торгов на 11 % из-за слабого прогноза на I квартал 2026 финансового года, оказавшегося ниже ожиданий Уолл-стрит, а также из-за отказа предоставить прогноз на весь финансовый год, пишет Reuters. «Масштабные мировые пошлины, объявленные президентом США Дональдом Трампом (Donald Trump), и более жёсткие ограничения США на экспорт передовых полупроводников на ключевой рынок микросхем Китая омрачили перспективы полупроводниковых компаний», — отметило новостное агентство. «Учитывая неопределённость глобальной торговой и экономической ситуации, у нас меньше возможностей для обзора, чем обычно, чтобы начать год. В результате мы не считаем целесообразным давать прогноз на весь год», — сообщил финансовый директор Джейсон Чайлд (Jason Child) аналитикам во время телефонной конференции. В свою очередь, гендиректор Рене Хаас (Rene Haas) заявил, что растущая доля выручки Arm от роялти за чипы, реализация которых, в свою очередь, связана с продажами таких устройств, как смартфоны и ноутбуки, затрудняет прогнозирование показателей. Выручка Arm за IV финансовый квартал составила $1,24 млрд, превысив результат аналогичного квартала годом ранее в размере $928 млн на 34 %, а также консенсус-прогноз аналитиков, опрошенных LSEG, равный $1,23 млрд. При этом выручка от лицензирования за квартал увеличилась на 53 % до $634 млн с $414 млн годом ранее, выручка от роялти выросла на 18 % — с $514 млн до $607 млн. Чистая прибыль (GAAP) упала на 6 % до $210 млн, или 20 центов на акцию, с $224 млн или 21 цента годом ранее. Скорректированная прибыль (non-GAAP) на акцию в размере 55 центов превысила прогноз аналитиков, опрошенных FactSet и LSEG, равный в обоих случаях 52 центам на акцию. По итогам 2025 финансового года выручка компании составила $4 млрд, а доходы от роялти впервые превысили $2 млрд, составив $2,17 млрд. Выручка Arm от лицензирования за год равна $1,84 млрд. Arm прогнозирует выручку за I квартал 2026 финансового года в размере от $1,00 до $1,10 млрд, что ниже средней оценки аналитиков, опрошенных LSEG, в $1,10 млрд. Прогноз скорректированной прибыли составляет от 30 до 38 центов на акцию по сравнению с оценкой аналитиков в 42 цента на акцию. Как сообщает Reuters, прогноз компании, оказавшийся ниже ожиданий аналитиков, был обусловлен крупной лицензионной сделкой, которую, возможно, не удастся закрыть в течение текущего финансового квартала. Он добавил, рост выручки от роялти составит в I финансовом квартале от 25 до 30 %, что выше, чем в предыдущем квартале. Arm отметила, что быстрый рост использования ИИ от облака до периферии создаёт спрос на энергоэффективные вычисления, который способны удовлетворить её решения, в частности, платформа Arm Neoverse. Она добавила, что NVIDIA запустила суперчип Grace Blackwell на базе Armv9 в серийное производство. Согласно прогнозу Arm, около 50 % всех новых серверных чипов, поставляемых гиперскейлерам в 2025 году, будут основаны на архитектуре Arm. Эти компании объединяют собственные чипы на базе Armv9 с собственными же ускорителями для запуска ИИ-нагрузок. Так, Google подтвердила, что её чип Axion теперь доступен в 10 регионах и используется примерно 40 из 100 ее крупнейших клиентов, включая Spotify. Microsoft расширила спектр программной поддержки своих чипов Cobalt 100, запустив рабочие нагрузки различных клиентов, включая Databricks, Siemens и Snowflake. Arm также сообщила, что продолжает увеличивать инвестиции в свою экосистему из более чем 22 млн разработчиков ПО, включая новое бесплатное расширение для GitHub Copilot. Кроме того, ПО Arm Kleidi для максимизации производительности ИИ на платформе Arm было установлено более 8 млрд раз на устройствах на базе Arm.
08.05.2025 [19:22], Сергей Карасёв
Cadence представила суперкомпьютер Millennium M2000 на базе NVIDIA BlackwellКомпания Cadence анонсировала суперкомпьютер Millennium M2000, спроектированный для выполнения сложного моделирования с использованием ИИ. Новая НРС-система предназначена для ускорения проектирования микрочипов, разработки лекарственных препаратов следующего поколения и пр. Суперкомпьютер построен на платформе NVIDIA HGX B200. Кроме того, задействованы карты NVIDIA RTX Pro 6000 Blackwell Server Edition, оснащённые 96 Гбайт памяти GDDR7. Применены библиотеки NVIDIA CUDA-X и специализированное ПО для решения ресурсоёмких задач. Утверждается, что Millennium M2000 обеспечивает до 80 раз более высокую производительность по сравнению с системами на базе CPU в области автоматизации проектирования электроники (EDA), создания и анализа систем (SDA) и разработки медикаментов. При этом глубоко оптимизированный программно-аппаратный стек помогает существенно сократить общее энергопотребление. В качестве примера приводится моделирование подсистемы питания на уровне полупроводниковых чипов. В случае вычислительных комплексов на основе сотен традиционных CPU на выполнение такой задачи может потребоваться около двух недель. Суперкомпьютер Millennium M2000 позволит получить результат менее чем за один день. Генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) сообщил, что компания планирует приобрести десять суперкомпьютерных систем Millennium на базе GB200 NVL72 для ускорения проектирования собственных продуктов. Сторонние заказчики смогут получить доступ к Millennium M2000 через облако или купить устройство для установки в собственном дата-центре. Базовая конфигурация включает около 32 ускорителей и стоит $2 млн, но это не финальная цена.
08.05.2025 [19:22], Сергей Карасёв
Synology выпустила сетевые хранилища DiskStation DS1825+ и DS1525+ на базе AMD Ryzen V1500BКомпания Synology анонсировала сетевые хранилища данных DiskStation DS1525+ и DS1825+ в «настольном» форм-факторе для сферы малого и среднего бизнеса. Устройства рассчитаны соответственно на пять и восемь накопителей типоразмера LFF или SFF с интерфейсом SATA-3 (могут применяться HDD и SSD). Обе новинки построены на процессоре AMD Ryzen V1500B: чип содержит четыре ядра (восемь потоков инструкций) с тактовой частотой 2,2 ГГц. Объём оперативной памяти DDR4 ECC в базовой конфигурации составляет 8 Гбайт с возможностью расширения до 32 Гбайт (два слота SO-DIMM). ![]() Источник изображений: Synology Помимо фронтальных отсеков для накопителей с поддержкой горячей замены, есть два внутренних коннектора для SSD формата M.2 2280 (NVMe). Хранилища располагают двумя сетевыми портами 2.5GbE RJ45 и двумя разъёмами USB 3.2 Gen1. Возможно формирование массивов RAID 0/1/5/6/10. Говорится о поддержке протоколов SMB1 (CIFS), SMB2, SMB3, NFSv3, NFSv4, NFSv4.1, iSCSI, HTTP, HTTPs, FTP, SNMP, LDAP, CalDAV. Модель DiskStation DS1525+ может быть укомплектована сетевым модулем E10G22-T1-Mini с поддержкой 10GbE. Заявленная скорость передачи данных достигает 1181 Мбайт/с при чтении и 1180 Мбайт/с при записи (при использовании SSD). Габариты составляют 166 × 230 × 223 мм, масса — 2,67 кг без установленных накопителей. За охлаждение отвечают два вентилятора диаметром 92 мм. ![]() Вариант DiskStation DS1825+ оборудован слотом PCIe 3.0, в который может быть установлена карта 10GbE или 10/25GbE SFP+/SFP28. Скорость чтения составляет до 2239 Мбайт/с, скорость записи — до 1573 Мбайт/с. Устройство имеет размеры 166 × 343 × 243 мм и весит около 6 кг. Установлены два вентилятора охлаждения на 120 мм. Диапазон рабочих температур у новинок простирается от 0 до +40 °C.
08.05.2025 [19:20], Сергей Карасёв
IBM представила сервер LinuxONE Emperor 5 на платформе Telum II для ИИ-задачКомпания IBM анонсировала сервер LinuxONE Emperor 5, который, как утверждается, обеспечивает высокие показатели производительности, безопасности и масштабируемости. Новинка ориентирована на работу с ИИ-приложениями и нагрузками, для которых требуется интенсивное использование данных. В основу LinuxONE Emperor 5 положена фирменная аппаратная платформа Telum II. Этот процессор содержит восемь ядер с фиксированной рабочей частотой 5,5 ГГц, а также ИИ-блок с производительностью 24 TOPS. Система может объединять до четырёх узлов (drawer) на базе Telum II. Максимальный объём памяти составляет 64 Тбайт. ![]() Источник изображения: IBM Модель LinuxONE Emperor 5 спроектирована с прицелом на экономию энергопотребления, финансовых затрат и занимаемой площади в дата-центре. По заявлениям IBM, благодаря консолидации рабочих нагрузок система обеспечивает снижение общей стоимости владения до 44 % за пятилетний период лет по сравнению с сопоставимыми по классу x86-серверами. При этом заявлена высокая надёжность: доступность достигает 99,999999 %, что эквивалентно всего 315 мс простоя в течение года. «Организации могут сэкономить до 94 % затрат на программное обеспечение за пять лет, переместив облачные контейнерные рабочие нагрузки с платформ x86 на LinuxONE Emperor 5», — заявляет IBM. В IV квартале текущего года для LinuxONE Emperor 5 станут доступны ИИ-ускорители IBM Spyre Accelerator, выполненные в виде карт расширения PCIe. Они оптимизированы специально для генеративного ИИ. Для машины сертифицировано использование Red Hat Enterprise Linux, SUSE Enterprise Linux и Ubuntu Linux.
07.05.2025 [18:23], Владимир Мироненко
AMD получила рекордную квартальную выручку, но ожидает до $1,5 млрд потерь из-за экспортных ограничений СШАAMD сообщила о рекордной выручке в I квартале 2025 финансового года, закончившемся 29 марта. Выручка составила $7,44 млрд, что на 3 % меньше, чем в предыдущем квартале, но на 36 % больше в годовом исчислении, что, как пишет ресурс CRN, стало возможным благодаря значительному росту продаж ускорителей Instinct и процессоров EPYC, а также процессоров Ryzen для ПК. Согласно консенсус-прогнозу аналитиков, опрошенных LSEG, выручка должна была составить $7,13 млрд. Чистая прибыль составила $709 млн или 44 цента на разводнённую акцию, по сравнению с $123 млн или 7 центов на акцию за аналогичный период годом ранее. Скорректированная прибыль (non-GAA) равняется $1,57 млрд или $0,96 на разводнённую акцию, что немного выше прогноза аналитиков, опрошенных LSEG, в $0,94 на разводнённую акцию. «Несмотря на неопределённый макроэкономический фон, наши результаты за I квартал подчёркивают силу нашего дифференцированного портфеля продуктов и его реализацию, и хорошо позиционируют нас для сильного роста в 2025 году», — отметила генеральный директор AMD Лиза Су (Lisa Su) в отчёте компании за I квартал. Су сообщила, что компания расширяет инвестиции в свой полный програмнный стек для ИИ и возможности решений для ЦОД, которые получили импульс после завершения приобретения AMD ZT Systems за $4,9 млрд в марте. Су сказала, что команда ZT Systems «полностью вовлечена и совместно с ключевыми клиентами уже разрабатывает оптимизированные конструкции уровня стойки». Компания также «работает с клиентами и OEM-партнёрами, чтобы ускорить выход на рынок» MI350. Выручка сегмента ЦОД за квартал составила $3,7 млрд, что на 57 % больше по сравнению с прошлым годом и выше прогноза аналитиков, опрошенных StreetAccount — в основном благодаря росту продаж процессоров AMD EPYC и ускорителей AMD Instinct. Компания отметила высокий спрос на EPYC со стороны предприятий, как в облаке, где количество инстансов на базе EPYC, активированных компаниями из списка Forbes 2000, более чем удвоилось по сравнению с прошлым годом, так и on-premise, где, по словам Су, их продажи стали выше «на большой двузначный процент по сравнению с прошлым годом» — рост наблюдается седьмой квартал подряд. Су заявила, что партнёры AMD увеличили количество платформ на базе EPYC до более чем 450, а компания расширила совместные программы выхода на рынок. «В результате EPYC теперь используется всеми 10 крупнейшими телекоммуникационными, аэрокосмическими и полупроводниковыми компаниями, 9 из 10 крупнейших автомобильных, 7 из 10 крупнейших производственных и 6 из 10 крупнейших энергетических компаний из списка Forbes 2000», — добавила она. Лиза Су сообщила, что выручка от продаж AMD Instinct увеличилась на «значительные двузначные проценты в годовом исчислении» благодаря поставкам чипов Instinct MI325X для новых корпоративных и облачных развертываний. По её словам, несколько гиперскейлеров расширили использование ускорителей Instinct, чтобы охватить всё больше вариантов использования генеративного ИИ, поиска, ранжирования и рекомендаций. «В этом квартале мы также добавили несколько ключевых облачных и корпоративных клиентов, включая одного из крупнейших разработчиков передовых моделей, который теперь использует ускорители Instinct для обслуживания значительной части инференса», — рассказала Су. «Глубина и широта нашего взаимодействия с клиентами продолжают увеличиваться, поскольку прорывы в крупномасштабных моделях, такие как выход OpenAI 03 и DeepSeek R1, стимулируют рост спроса», — сказала Су. По её словам, чтобы стимулировать внедрение ускорителей Instinct, компания «значительно ускорила» частоту выпуска обновлений своего программного стека ROCm AI. Теперь релизы выходят каждые две недели, а не ежеквартально, и содержат «готовые к развёртыванию контейнеры для обучения и инференса», которые «включают оптимизацию производительности и поддержку новейших библиотек, ядер и алгоритмов», отметила Лиза Су. Су также сообщила, что AMD начала в I квартале тестировать ускорители Instinct MI350 следующего поколения с несколькими клиентами и готовится к старту их производства к середине этого года. «Интерес клиентов к серии MI350 очень высок, что создаёт условия для широкого развёртывания во II половине этого года», — сказала она. Ускоритель MI400 следующего поколения компания планирует выпустить в следующем году. Сегмент встраиваемых решений, продажи которого в основном состоят из продуктов Xilinx, сократил выручку на 3% в годовом исчислении до $823 млн. При этом Су заявила, что спрос в сегменте продолжает «постепенно восстанавливаться». «Мы ожидаем, что улучшение спроса на рынках тестирования и измерений, связи и аэрокосмической отрасли приведёт к возобновлению роста во II половине 2025 года», — сказала она. Выручка сегмента клиентских и игровых решений за квартал составила $2,9 млрд, увеличившись на 28 % по сравнению с прошлым годом. При этом выручка клиентского сегмента выросла год к году на 68 % до $2,3 млрд, в игровом сегменте упала на 30 % до $647 млн. В текущем квартале AMD прогнозирует выручку около $7,4 млрд ± $300 млн, в то время как Уолл-стрит оценивает ожидаемые продажи в $7,25 млрд при скорректированной прибыли в 86 центов на разводнённую акцию. Также компания сообщила, что ожидает из-за экспортных ограничений около $700 млн упущенной выгоды в текущем квартале и $1,5 млрд в общей сложности до конца финансового года. Для сравнения, NVIDIA недосчитается $5,5 млрд только по итогам одного квартала.
07.05.2025 [16:22], Руслан Авдеев
Roblox развернёт новый ЦОД в Сан-Паулу в 2026 годуRoblox Corporation, стоящая за популярной видеоигровой платформой, начала строить ЦОД в Сан-Паулу (Бразилия), сообщает Datacenter Dynamics. Новый ЦОД заработает в начале 2026 года. Он расширит возможности миллионов пользователей в Бразилии — производительность повысится, а задержка сократится задержка. Дата-центр получит передовое оборудование. Впрочем, технических подробностей пока немного. В комментариях на сайте DevForum сообщается, что Roblox испытывает серверы в Бразилии с 2024 года, но косвенные признаки свидетельствуют о том, что речь может идти о строительстве объекта с нуля. Платформа готовится принять ещё миллионы человек — Бразилия невероятно важна для неё. Roblox распоряжается 27 дата-центрами, большинство из которых находятся в США. Большинство сервисов под управлением Roblox Cloud размещаются в ЦОД, управляемых самой Roblox. Часть дата-центров напрямую связана друг с другом широкополосными магистральными каналами связи, минующими общедоступный интернет. Некоторые базы данных, объектные хранилища и иные сервисы размещены в AWS. Почти все серверы, ответственные за моделирование виртуальных сред и оптимизацию ресурсов для клиентов Roblox, принадлежат самой компании и работают в ЦОД, в том числе периферийных, которые разбросаны по 23 городам Северной Америки, Азиатско-Тихоокеанского региона и Европы. На 31 декабря 2024 года облако Roblox использовало 140 тыс. серверов. В конце апреля сообщалось, что в Бразилии может появиться новый дата-центр TikTok китайской ByteDance, а буквально на днях появилась информация, что в Рио-де-Жанейро построят крупнейший в Латинской Америке кампус ЦОД Rio AI City.
07.05.2025 [16:09], Руслан Авдеев
Stockholm Exergi захватит углекислоту из атмосферы и спрячет её под дном морскимMicrosoft Corp. расширила соглашение о покупке «углеродных кредитов» у компании Stockholm Exergi AB. Последняя занимается генерацией тепла и электричества, параллельно захватывая и храня углерод из атмосферы, сообщает Bloomberg. Масштаб сделки существенно увеличен. Соглашение теперь включает захват 5,08 млн т CO2 в течение 10 лет, тогда как ранее речь шла о 3,33 млн т. По словам Stockholm Exergi, речь идёт о крупнейшем в мире соглашении такого рода. Microsoft считается одним из крупнейших покупателей «углеродных кредитов» на удаление CO2 в мире. Такие сертификаты позволяют отчасти «компенсировать» выбросы парниковых газов, связанные с деятельностью Microsoft. Stockholm Exergi обеспечивает теплом более миллиона человек. Ранее в этом году компания приняла окончательное решение о строительстве завода по улавливанию и хранению углерода (BECCS) за Kr13 млрд ($1,3 млрд). Технология BECCS (bioenergy with carbon capture and storage) предусматривает временное хранение диоксида углерода на площадках шведской компании. После этого тот будет переправляться в Норвегию, где его будут закачивать в геологические формации под дном Северного моря. Это будет делаться при сотрудничестве с проектом Northern Lights, курируемым Equinor ASA, Shell Plc и TotalEnergies SE. Microsoft участвует и в других «зелёных» проектах по захвату углерода, включая сделку на 300 тыс. тонн с Heirloom и на 10 тыс. тонн с Climeworks, также занимающейся прямым захватом газов. Кроме того, заключена сделка об удалении углекислоты из атмосферы с Carbon Capture. В захват углерода уже инвестировали и другие компании, включая Meta✴ и Google.
07.05.2025 [11:28], Сергей Карасёв
Ampere представила процессоры AmpereOne M для ИИ-задач: до 192 ядер Arm и 12 каналов памяти DDR5Компания Ampere Computing анонсировала процессоры семейства AmpereOne M, разработанные специально для поддержания ресурсоёмких ИИ-нагрузок в дата-центрах. Утверждается, что чипы подходят для задач инференса, работы с большими языковыми моделями (LLM), генеративным ИИ и пр. О подготовке новых изделий впервые сообщалось летом прошлого года. Конфигурация процессоров включает от 96 до 192 кастомизированных 64-бит ядер на базе Arm v8.6+. Имеется 16 Кбайт кеша инструкций и 64 Кбайт кеша данных L1 в расчёте на ядро, а также 2 Мбайт L2-кеша на ядро. Объём системного кеша составляет 64 Мбайт. Реализованы 12 каналов DDR5-5600 (поддерживается один модуль DIMM на канал) с возможностью адресации до 3 Тбайт памяти. ![]() Источник изображений: Ampere Конструкция чипов включает 96 линий PCIe 5.0 с поддержкой бифуркации до режима x4 и возможностью использования до 24 дискретных подключённых устройств. Упомянуты средства виртуализации, шифрование памяти, поддержка прерываний I2C, GPIO, QSPI и GPI, системный и сторожевой таймеры. Предусмотрены развитые функции обеспечения безопасности, включая повышение производительности криптографических алгоритмов RNG, SHA512, SHA3. На сегодняшний день в серию AmpereOne M входят шесть моделей с тактовой частотой от 2,6 до 3,6 ГГц. Показатель TDP варьируется от 239 до 348 Вт. Благодаря интеллектуальной сети с высокой пропускной способностью и большому количеству однопоточных вычислительных ядер обеспечивается линейное масштабирование производительности в зависимости от текущей рабочей нагрузки. Возможна динамическая оптимизация мощности. Процессоры используют 7228-контактный разъём FCLGA. При производстве применяется 5-нм технология TSMC. По заявлениям Ampere, новые CPU подходят для применения в составе систем для серверных стоек высокой плотности. Благодаря этому достигается снижение эксплуатационных расходов по сравнению с ИИ-инфраструктурой на базе GPU.
07.05.2025 [09:05], Владимир Мироненко
IBM разработала инструменты для быстрого создания и интеграции ИИ-агентовIBM планирует укрепить свои позиции на быстрорастущем рынке ИИ-технологий с помощью увеличения инвестиций в США и предложения собственных инструментов, которые помогут клиентам управлять ИИ-агентами для их ключевых бизнес-приложений. Об этом сообщил генеральный директор IBM Арвинд Кришна (Arvind Krishna) в интервью агентству Reuters. Глава IBM заявил, что разработанное компанией ПО позволяет клиентам создавать собственные ИИ-системы, а также интегрировать ИИ-агентов от других провайдеров, включая Salesforce, Adobe и Workday. Это поможет удовлетворить потребность в кастомных решениях во многих областях бизнеса. Подход IBM заключается в том, чтобы предложить полный спектр облачных и ИИ-сервисов остальным компаниям, которые в настоящее время полагаются на лидеров рынка AWS и Microsoft. Особое внимание IBM уделяет внедрению функций ИИ в мультиоблачных платформах, что найдёт спрос среди тех, кому нужны кастомные ИИ-решения, а также в собственные инфраструктуры заказчиков для управления данными. ![]() Источник изображения: IBM По словам гендиректора IBM, предлагаемые инструменты, позволяющие создавать собственных ИИ-агентов в течение не более пяти минут, основаны на семействе LLM Granite, а также на альтернативных моделях от Meta✴ Platforms и Mistral. IBM сообщила, что уже получила заказы на создание решений на базе генеративного ИИ на $6 млрд. Также компания объявила в апреле о планах инвестировать в течение пяти лет $150 млрд в США, где она в течение более 60 лет производит мейнфреймы. Кришна подчеркнул, что квантовые компьютеры тоже будут производиться в США. Глава IBM отметил, что синергия мейнфреймов, ИИ и квантовых вычислений, как ожидается, создаст надёжный и устойчивый рынок, в который следует инвестировать и который позволит компании использовать эти достижения в течение следующего десятилетия. Кришна добавил, что фокус на технологии и сокращение регулирования со стороны администрации оказали благотворное влияние на экономику США, способствуя её росту. Это позволяет IBM наращивать инвестиции и инновации, тем самым потенциально укрепляя свою конкурентную позицию как поставщика бизнес-решений на основе ИИ.
06.05.2025 [21:12], Руслан Авдеев
Meta✴ Llama API задействует ИИ-ускорители Cerebras и GroqMeta✴ объединила усилия с Cerebras и Groq для инференс-сервиса с применением API Llama. Открыв API-доступ к собственным моделям, Meta✴ становится чуть более похожа на облачных провайдеров. Как утверждают в Cerebras, разработчики, применяющие API для работы с моделями Llama 4 Cerebras, могут получить скорость инференса до 18 раз выше, чем у традиционных решений на базе GPU. В компании объявили, что такое ускорение позволит использовать новейшее поколение приложений, которые невозможно построить на других ИИ-технологиях. Речь, например, идёт о «голосовых» решениях с низкой задержкой, интерактивной генерации кода, мгновенном многоэтапном рассуждении и т. п. — многие задачи можно решать за секунды, а не минуты. После запуска инференс-платформы в 2024 году Cerebras обеспечила для Llama самый быстрый инференс, обрабатывая миллиарды токенов через собственную ИИ-инфраструктуру. Теперь прямой доступ к альтернативам решений OpenAI получит широкое сообщество разработчиков. По словам компании, партнёрство Cerebras и Meta✴ позволит создавать ИИ-системы, «принципиально недосягаемые для ведущих облаков». Согласно замерам Artificial Analysis, Cerebras действительно предлагает самые быстрые решения для ИИ-инференса, более 2600 токенов/с для Llama 4 Scout. ![]() Источник изображения: Meta✴ При этом Cerebras не единственный партнёр Meta✴. Она также договорилась с Groq об использовании ускорителей Language Processing Units (LPU), которые обеспечивают высокую скорость (до 625 токенов/с), низкую задержку и хорошую масштабируемость при довольно низких издержках. Groq использует собственную вертикально интегрированную архитектуру, полностью контролируя и железо, и софт. Это позволяет добиться эффективности, недоступной в облаках на базе универсальных ИИ-чипов. Партнёрство с Meta✴ усиливает позиции Groq и Cerebras в борьбе с NVIDIA. Для Meta✴ новое сотрудничество — очередной шаг в деле выпуска готовых open source ИИ-моделей, которые позволят сосредоточиться на исследованиях и разработке, фактически передав инференс надёжному партнёру. Разработчики могут легко перейти на новый стек без необходимости дообучения моделей или перенастройки ускорителей — API Llama совместимы с API OpenAI. Пока что доступ к новым API ограничен. Цены Meta✴ также не сообщает. Meta✴ активно работает над продвижением своих ИИ-моделей. Так, она даже выступила с довольно необычной инициативой, предложив «коллегам-конкурентам» в лице Microsoft и Amazon, а также другим компаниям, поделиться ресурсами для развития и обучения моделей Llama. |
|