Материалы по тегу: ии
07.07.2024 [19:42], Руслан Авдеев
Министерство энергетики США вложит $100 млн в создание «зелёных» энергохранилищ без использования литияАмериканское министерство энергетики (DOE) намерено инвестировать $100 млн в проекты, предусматривающие применение батарей без использования лития. По данным Datacenter Dynamics, оно уже выпустило т.н. «уведомление о намерениях», предусматривающих финансирование нескольких демонстрационных энергопроектов, акцентирующих внимание на «нелитиевых» технологиях, решениях со временем разрядки 10+ часов и стационарных энергохранилищах. Подобные системы могут стать важным элементом перехода на возобновляемые источники энергии для дата-центров и сетевых поставщиков электроэнергии, поскольку смогут помогать захватывать и сохранять солнечную или ветряную энергию и отдавать её по мере необходимости, в том числе ночью или в штиль. Кроме того, подобные технологии можно будет использовать для подпитки энергосетей в случае экстренной необходимости. В DOE считают, что США понадобится ещё 700–900 «зелёных» ГВт для того, чтобы страна добилась нулевых выбросов к 2050 году. При этом нынешние сети уже включают кратковременные хранилища энергии, но рост мощностей возобновляемых источников может привести к ужесточению требований к системам хранения. Системы длительного хранения энергии (LDES), по мнению чиновников, должны сыграть ключевую роль в создании энергетических резервов, необходимых для обеспечения стабильности работы энергосетей. За финансирование отвечает Управление по демонстрации экологически чистой энергии (Office of Clean Energy Demonstrations, OCED). Предполагается поддержать от 3 до 15 проектов, которые получат $5–20 млн. Но должны найтись и частные соинвесторы, готовые вложить в каждый выбранный проект аналогичную сумму. Предполагается, что гранты помогут в развитии технологий, позволят довести опытные разработки до промышленной реализации, поспособствуют проведению практических испытаний и развитию цепочек поставок. При этом отобраны будут проекты, которые наиболее близки к стадии коммерциализации. Промышленные аккумуляторы без лития, которые подходят для резервного питания крупных объектов, уже существуют. Недавно американский стартап Unigrid привлёк $12 млн для разработки найтрий-ионных АКБ. А ZincFive и FDK создают никель-цинковые батареи.
07.07.2024 [08:52], Сергей Карасёв
Стартап Phaidra, разрабатывающий ИИ для эффективного управления ЦОД, привлёк $12 млнСтартап Phaidra, разрабатывающий ИИ-решения для оптимизации работы дата-центров и крупных промышленных предприятий, провёл новый раунд финансирования, в ходе которого на развитие привлечено $12 млн. Деньги будут направлены на исследования и разработки, а также на расширение рыночного присутствия. Фирма Phaidra основана в 2019 году Джимом Гао (Jim Gao), Ведавьясом Паннеершелвамом (Vedavyas Panneershelvam) и Кэти Хоффман (Katie Hoffman) — выходцами из Google, Deepmind и Trane соответственно. Гао занимает пост генерального директора. Сейчас Phaidra получает основную часть выручки от подписок на свои решения. ИИ-платформа Phaidra используется в качестве надстройки для системы управления зданием BMS или диспетчерской системы SCADA. Решение Phaidra анализирует показания датчиков в режиме реального времени, определяет оптимальную стратегию работы средств охлаждения и генерирует необходимые управляющие инструкции. Платформа обучается на исторических данных телеметрии конкретного объекта и накапливает опыт непосредственно во время работы, что с течением времени позволяет дополнительно повышать эффективность. Средства управления на основе ИИ, работающие круглосуточно и без перерывов, исключают человеческий фактор, говорят разработчики. В результате, снижаются риски простоя, повышаются энергетическая эффективность и производительность, уменьшаются выбросы вредных газов в атмосферу. Новый раунд финансирования возглавила Index Ventures. На сегодняшний день стартап привлёк в общей сложности $60,5 млн. В число прежних инвесторов входят Callab Fund, Helena (возглавляла раунд Series A), Flying Fish Partners, Character, S32, Ahren и GSFutures. Поученные деньги помогут ускорить разработку продуктов и расширить штат, который сейчас включает около 100 сотрудников.
06.07.2024 [23:27], Владимир Мироненко
Sequoia Capital: ИИ пока не оправдывает вложений и может превратиться в финансовый пузырьНесмотря на масштабные инвестиции крупных технологических компаний в инфраструктуру ИИ ни одна из них не может пока похвастаться значительной отдачей от своих вложений в это направление, пишет ресурс Tom's Hardware со ссылкой на заметку венчурного фонда Sequoia Capital. Если компания OpenAI, использующая инфраструктуру Microsoft Azure, смогла за короткое время существенно увеличить доходы с $1,6 млрд в конце 2023 года до $3,4 млрд в 2024 году, то другие ИИ-стартапы пока только пытаются подобраться к отметке в $100 млн. В то время, как NVIDIA заработала в прошлом году $47,5 млрд на поставках оборудования для ЦОД, в основном ИИ-ускорителей, её основные клиенты, такие как AWS, Google, Meta✴, Microsoft и т.д., вложившие немалые средства в развёртывание ИИ-инфраструктуры, пока имеют более скромные доходы от этого направления. По данным NVIDIA, половина её доходов от поставок для ЦОД поступает от крупных провайдеров облачных услуг — поставки только Microsoft принесли ей около 22 % выручки в IV квартале 2024 финансового года. По мнению Дэвида Кана (David Cahn), аналитика Sequoia Capital, ситуация начинает приобретать сходство с финансовым пузырём. Согласно его подсчётам, компаниям ИИ-отрасли необходимо иметь доход около $600 млрд в год, чтобы оправдать расходы на свою ИИ-инфраструктуру. К таким выводам Кан пришёл, выполнив несложные расчёты. Он удвоил прогноз текущих доходов NVIDIA, чтобы покрыть общие затраты на ИИ ЦОД, половина которых приходится на ускорители, остальное — на энергию, здания и резервные генераторы. Полученный результат он снова удвоил, чтобы обеспечить 50 % валовой прибыли для конечных потребителей ИИ-сервисов таких компаний, как AWS или Microsoft Azure, которые тоже не должны остаться внакладе. Даже если Google, Microsoft, Apple и Meta✴ будут ежегодно получать по $10 млрд дохода от использования ИИ, а такие компании, как Oracle, ByteDance, Alibaba, Tencent, X и Tesla — по $5 млрд, останется ещё $500 млрд затрат, которые нужно перекрыть. Кан предложил снизить ожидания быстрой прибыли от достижений в области ИИ и заняться внедрением устойчивых инноваций и созданием ценных для конечных пользователей решений. В противном случае образовавшийся пузырь на сотни миллиардов долларов может лопнуть, что приведёт к негативным последствиям для рынка.
06.07.2024 [23:09], Владимир Мироненко
China Mobile запустила в Китае ЦОД с 4000 ИИ-ускорителей, треть из которых — отечественныеКитайская телекоммуникационная компания China Mobile объявила об официальном запуске в Пекине «интеллектуального вычислительного центра» — дата-центра площадью 57 тыс. м2, оснащённого серверами с 4 тыс. ИИ-ускорителей общей производительностью 1 Эфлопс (точность вычислений здесь и далее не указывается). Треть установленных в дата-центре ускорителей (33 %) — местного производства, сообщил ресурс China Daily. China Mobile также сообщила, что разместила у местных компаний заказ на поставку оборудования для своих «интеллектуальных вычислительных центров» на сумму $2,6 млрд. В общей сложности China Mobile закупит в период с 2024 по 2025 год 8054 единиц оборудования для своих для ЦОД, включая 7994 ИИ-сервера вместе со вспомогательным оборудованием, а также 60 коммутаторов, сообщил ресурс Data Center Dynamics. В числе победителей тендера — Wuhan Guangxun Technology, Kunlun Technology, Huakun Zhenyu, Boyd Computer, Powerleader и Yangtze Computing. Kunlun Technology поставляет ИИ-серверы и периферийное оборудование, Huakun Zhenyu выпускает серверы на базе Arm-процессоров Huawei Kunpeng и ИИ-ускорителей Huawei Ascend, а Powerleader специализируется на выпуске серверов и ПК для корпоративного сегмента. Ранее China Mobile сообщила, что построила крупнейший ЦОД в Хух-Хото (Внутренняя Монголия, Китай), оснащённый 20 тыс. ИИ-ускорителями общей производительностью 670 Тфлопс. В дальнейшем компания планирует построить ЦОД в Харбине (Harbin) на северо-востоке Китая и Гуйяне (Guiyang) на юге страны. Сейчас у China Mobile есть 12 «интеллектуальных» ЦОД в КНР, общая производительность которых составляет 17 Эфлопс.
05.07.2024 [09:18], Владимир Мироненко
Потрать доллар — получи семь: ИИ-арифметика от NVIDIANVIDIA заявила, что инвестиции в покупку её ускорителей весьма выгодны, передаёт ресурс HPCwire. По словам NVIDIA, компании, строящие огромные ЦОД, получат большую прибыль в течение четырёх-пяти лет их эксплуатации. Заказчики готовы платить миллиарды долларов, чтобы не отстать в ИИ-гонке. «Каждый доллар, вложенный провайдером облачных услуг в ускорители, вернётся пятью долларами через четыре года», — заявил Иэн Бак (Ian Buck), вице-президент HPC-подразделения NVIDIA на конференции BofA Securities 2024 Global Technology Conference. Он отметил, что использование ускорителей для инференса несёт ещё больше выгоды, позволяя получить уже семь долларов за тот же период. Как сообщается, инференс ИИ-моделей Llama, Mistral и Gemma становится всё масштабнее. Для удобства NVIDIA упаковывает открытые ИИ-модели в оптимизированные и готовые к запуску контейнеры NIM. Компания отметила, что её новейшие ускорители Blackwell оптимизированы для инференса. Они, в частности, поддерживают типы данных FP4/FP6, что повышает энергоэффективность оборудования при выполнении рабочих нагрузок ИИ с низкой интенсивностью. Провайдеры облачных услуг планируют строительство ЦОД на пару лет вперёд и хотят иметь представление о том, какими будут ускорители в обозримом будущем. Бак отметил, что провайдерам важно знать, как будут выглядеть ЦОД с серверами на базе чипов Blackwell и чем они будут отличаться от дата-центров на Hopper. Скоро на смену Blackwell придут ускорители Rubin. Их выпуск начнётся в 2026 году, так что гиперскейлерам уже можно готовиться к обновлению дата-центров. Как ожидается, чипы Blackwell, первые партии которых будут поставлены к концу года, будут в дефиците. «С каждым новым технологическим переходом возникает… сочетание проблем спроса и предложения», — отметил Бак. По его словам, операторы ЦОД постепенно отказываются от инфраструктуры на базе CPU, освобождая место под большее количество ускорителей. Ускорители Hopper пока остаются в ЦОД и всё ещё будут основными «рабочими лошадками» для ИИ, но вот решения на базе архитектур Ampere и Volta уже перепродаются. Microsoft и Google сделали ставку на ИИ и сейчас работают над более функциональными большими языковыми моделями, причём Microsoft (и OpenAI) в значительной степени полагается на ускорители NVIDIA, тогда как Google опирается на TPU собственной разработки для использования в своей ИИ-инфраструктуре. Пока что самая крупная модель насчитывает порядка 1,8 трлн параметров, но по словам Бака, это только начало. В дальнейшем появятся модели с триллионами параметров, вокруг которой будут построены более мелкие и более специализированные модели. Так, свежая GPT-модель (вероятно, речь о GPT-4o) включает 16 отдельных нейросетей. NVIDIA уже адаптирует свои ускорители к архитектуре Mixture of Experts (MoE, набор экспертов), где процесс обработки запроса пользователя делится между несколькими специализированными «экспертными» нейросетями. GB200 NVL72, по словам Бака, идеально подходит для MoE благодаря множеству ускорителей связанных быстрым интерконнектом, каждый из которых может обрабатывать часть запроса и быстро делится ответом с другими.
03.07.2024 [16:27], Руслан Авдеев
Технологии в обмен на ресурсы: Character.AI провела переговоры о сотрудничестве с Google, Meta✴ и xAI [Обновлено]ИИ-стартап Character.AI провёл переговоры с несколькими IT-гигантами, передаёт The Information. По слухам, компания обсуждала возможности сотрудничества с Google, Meta✴ и контролируемой Илоном Маском (Elon Musk) xAI. Основанная бывшими сотрудниками Google компания уже привлекла $150 млн на создание чат-ботов, имитирующих поведение героев аниме, игр и др. На прошлой неделе компания представила функцию Character Call, обеспечивающую голосовое общение с ИИ-аватарами, готовыми ответить на запрос пользователя. Предполагается, что это добавит популярности сервисам компании. Если бы стартапу удалось заключить сделку с одним из крупных игроков вроде Google или xAI, он получил бы доступ к огромным вычислительным ресурсам, а в ответ поделился бы интеллектуальной собственностью, связанной со своими передовыми разработками. По сведениям The Information, компания обсуждала заключение аналогичной сделки о совместном участии в исследованиях и с Meta✴ Platforms. Пока потенциальные участники сделки, включая Character.AI, не ответили на запросы журналистов. Некоторые эксперты полагают, что у компании слишком мало собственных вычислительных ресурсов, поэтому ей неизбежно пришлось бы прибегнуть к помощи игроков покрупнее. В индустрии это уже привычная практика. Так, Alibaba Cloud предлагает стартапам ИИ-мощности в обмен на долю в компании, а различные программы поддержки начинающих компаний в области ИИ нередко предполагают «выплаты» именно облачными ресурсами, а не живыми деньгами. UPD 03.08.2024: Google наняла основателей Character.AI и лицензировала ИИ-модели компании.
03.07.2024 [15:34], Руслан Авдеев
Из-за ИИ за пять лет выбросы парниковых газов Google выросли на 48 %, а за год — на 13 %Из-за масштабной экспансии Google на рынке ЦОД выбросы парниковых газов компании взлетели за последние пять лет на 48 %. Как сообщает Ars Technica, это ставит под сомнение цель IT-гиганта добиться «нулевых выбросов» к 2030 году. Согласно докладу Google, в 2023 году выбросы достигли 14,3 млн тонн углеродного эквивалента. Это на 48 % больше в сравнении с показателями 2019 года и на 13 % в сравнении с 2022 годом. Всего в прошлом году компания использовала 25,91 ТВт∙ч электричества, в 2022 году — 21,776 ТВт∙ч, а пять лет назад — 12,237 ТВт∙ч. Сегодня на «безуглеродную» энергию приходится 67 % потребления компании, дополнительно закупается «чистое» электричество в Австралии, Бельгии, Техасе и других локациях. В компании признали, что снизить выбросы довольно трудно, одновременно инвестируя в генеративный ИИ и сопутствующую инфраструктуру. Подчёркивается, что влияние ИИ было трудно предсказать раньше. Тем не менее, в Google подтверждают намерение добиться «углеродной нейтральности» к 2030 году, но пока что выбросы будут расти «перед тем, как упасть». Утверждается, что компания интенсивно работает над этой проблемой, в том числе заключая сделки на поставки «чистой» энергии. Фактически компания седьмой год подряд закупает на 100 % возобновляемую энергию для своих ЦОД. Кроме того, ИИ открывает новые возможности для борьбы с изменениями климата. Google также уточнила, что связанные с энергетикой выбросы Scope 2 в 2023 году (в первую очередь речь про энергопотребление ЦОД), выросли на 37 % год к году, а в целом на них приходится четверть всех выбросов парниковых газов компании. Выбросы участников цепочки поставок Google составляют три четверти, при этом и они выросли на 8 %. В Google заявили, что рост продолжится в обозримом будущем, частично из-за сопутствующей инфраструктуры, необходимой для работы ИИ. Google обязалась добиться нулевых прямых и непрямых выбросов парниковых газов к 2030 году, чтобы круглосуточно работать на «чистой» энергии. Тем не менее, в отчёте компания сообщила о закрытии части связанных с возобновляемой энергией проектов в 2023 году, из-за чего доступ к такой энергии у компании снизился, а потребности в ней из-за роста энергопотребления ЦОД превысили доступные Google объёмы. В частности, такая ситуация наблюдается в США и Азиатско-Тихоокеанском регионе. В целом потребление ЦОД Google электричества выросло в 2023 году на 17 %, составив 7-10 % от энергопотребления всех дата-центров в мире. Согласно статистике, потребляется 100 % возобновляемой энергии, 67 % из которой приходится на безуглеродную энергию, индекс PUE для ЦОД в среднем составляет 1.1, а энергоэффективность дата-центров в 1,8 раза выше, чем у сопоставимых объектов в отрасли. Кроме того, объекты Google потребили на 17 % больше воды в 2023 году, чем годом ранее. IT-гиганты, включая Google, Amazon (AWS) и Microsoft уже обнародовали планы инвестировать десятки миллиардов долларов в ИИ, поэтому эксперты неоднократно выражали озабоченность вероятным воздействием соответствующего оборудования на окружающую среду. В мае Microsoft признала, что её выбросы с 2020 года выросли почти на треть, во многом из-за строительства и внедрения ИИ ЦОД. Впрочем, один из основателей компании Билл Гейтс (Bill Gates) подчеркнул, что ИИ поможет продвигать современные климатические решения.
03.07.2024 [08:32], Владимир Мироненко
Крупный европейский криптомайнер Northern Data обдумывает вывод на биржу подразделений ЦОД и ИИКомпания Northern Data, деятельность которой связана с майнингом криптовалюты, предоставлением услуг высокопроизводительных вычислений (HPC) и ИИ, обдумывает возможность проведения IPO подразделений Taiga и Ardent, предоставляющих услуги облачных вычислений и ЦОД соответственно, пишет Bloomberg. По данным источников Bloomberg, IPO может состояться на площадке Nasdaq. В настоящее время компания ведёт переговоры с банками для проведения публичного размещения акций. По оценкам банков, капитализация этих подразделений может составить $10–$16 млрд. Как и многие компании, занимающиеся майнингом криптовалют, Northern Data рассматривает HPC и ИИ как прибыльное дополнение к своей основной деятельности. В прошлом году Northern Data разделила свой бизнес на три подразделения — Arden, Taiga и Peak Mining, сосредоточив в последнем все операции по майнингу криптовалют. Согласно информации на сайте компании, у неё имеется 11 дата-центров. Peak Mining, американское подразделение компании по майнингу биткоинов, строит и разрабатывает дата-центры суммарной ёмкостью почти 700 МВт, что в случае реализации всех планов сделает его одним из крупнейших майнеров криптовалюты в США. Taiga уже владеет 24,5 тыс. ускорителей NVIDIA, включая H100, A100 и A6000. Они в основном находятся в трёх ЦОД в Швеции и Норвегии и на 100 % запитаны от «зелёных» источников энергии. В понедельник компания объявила, что первой в Европе приобрела 2 тыс. ускорителей NVIDIA H200, дополненных DPU BlueField-3 и ConnectX-7. Они будут размещены в одном из европейских ЦОД с PUE менее 1,2. Запуск первого кластера намечен на IV квартал, а его производительность составит порядка 32 Пфлопс (точность вычислений не указана). Пиковая теоретическая FP64-производительность такого количества ускорителей H200 составляет 68 Пфлопс. В свою очередь Ardent занимается дизайном и строительством высокоплотных ЦОД, ориентированных на HPC- и ИИ-нагрузки. Компания использует СЖО, а заявленный уровень PUE не превышает 1,15. При этом Ardent обещает 100 % доступность своих площадок. Как сообщается, Northern Data в ноябре получила кредитное финансирование на сумму €575 млн от компании Tether Group, занимающейся стейблкоинами, а в январе завершила приобретение у Tether компании Damoon за €400 млн, рассчитавшись с помощью облигаций, конвертируемых в акции, выпущенные Northern Data AG. В результате Tether стала основным инвестором Northern Data. Полученные средства Northern Data использует для закупок самых востребованных чипов NVIDIA. Благодаря этому к концу лета компанией будет развёрнуто около 20 тыс. NVIDIA H100.
02.07.2024 [23:55], Алексей Степин
15 тыс. ускорителей на один ЦОД: Alibaba Cloud рассказала о сетевой фабрике, используемой для обучения ИИAlibaba Cloud раскрыла ряд сведений технического характера, касающихся сетевой инфраструктуры и устройства своих дата-центров, занятых обработкой ИИ-нагрузок, в частности, обслуживанием LLM. Один из ведущих инженеров компании, Эньнань Чжай (Ennan Zhai), опубликовал доклад «Alibaba HPN: A Data Center Network for Large Language Model Training», который будет представлен на конференции SIGCOMM в августе этого года. В качестве основы для сетевой фабрики Alibaba Cloud выбрала Ethernet, а не, например, InfiniBand. Новая платформа используется при обучении масштабных LLM уже в течение восьми месяцев. Выбор обусловлен открытостью и универсальностью стека технологий Ethernet, что позволяет не привязываться к конкретному вендору. Кроме того, меньше шансы пострадать от очередных санкций США. Отмечается, что традиционный облачный трафик состоит из множества относительно небыстрых потоков (к примеру, менее 10 Гбит/с), тогда как трафик при обучении LLM включает относительно немного потоков, имеющих периодический характер со всплесками скорости до очень высоких значений (400 Гбит/с). При такой картине требуются новые подходы к управлению трафиком, поскольку традиционные алгоритмы балансировки склонны к перегрузке отдельных участков сети. Разработанная Alibaba Cloud альтернатива носит название High Performance Network (HPN). Она учитывает многие аспекты работы именно с LLM. Например, при обучении важна синхронизация работы многих ускорителей, что делает сетевую инфраструктуру уязвимой даже к единичным точкам отказа, особенно на уровне внутристоечных коммутаторов. Alibaba Cloud использует для решения этой проблемы парные коммутаторы, но не в стековой конфигурации, рекомендуемой производителями. Каждый хост содержит восемь ИИ-ускорителей и девять сетевых адаптеров. Каждый из NIC имеет по паре портов 200GbE. Девятый адаптер нужен для служебной сети. Между собой внутри хоста ускорители общаются посредством NVLink на скорости 400–900 Гбайт/с, а для общения с внешним миром каждому из них полагается свой 400GbE-канал с поддержкой RDMA. При этом порты сетевых адаптеров подключены к разным коммутаторам из «стоечной пары», что серьёзно уменьшает вероятность отказа. В докладе говорится, что Alibaba Cloud использует современные одночиповые коммутаторы с пропускной способностью 51,2 Тбит/с. Этим условиям отвечают либо устройства на базе Broadcom Tomahawk 5 (март 2023 года), либо Cisco Silicon One G200 (июнь того же года). Судя по использованию выражения «начало 2023 года», речь идёт именно об ASIC Broadcom. Своё предпочтение именно одночиповых коммутаторов компания объясняет просто: хотя многочиповые решения с большей пропускной способностью существуют, в долгосрочной перспективе они менее надёжны и стабильны в работе. Статистика показывает, что аппаратные проблемы у подобных коммутаторов возникают в 3,77 раза чаще, нежели у одночиповых. Одночиповые решения класса 51,2 Тбит/с выделяют много тепла, но ни один поставщик оборудования не смог предложить Alibaba Cloud готовые решения, способные удерживать температуру ASIC в пределах 105 °C. Выше этого порога срабатывает автоматическая защита. Поэтому для охлаждения коммутаторов Alibaba Cloud создала собственное решение на базе испарительных камер. Сетевая фабрика позволяет создавать кластеры, каждый из которых содержит 15360 ускорителей и располагается в отдельном здании ЦОД. Такое высокоплотное размещение позволяет использовать оптические кабели длиной менее 100 м и более дешёвые многомодовые трансиверы, которые дешевле одномодовых примерно на 70 %. Ёмкость такого дата-центра составляет около 18 МВт. Но есть у HPN и недостаток: использование топологии с двумя внутристоечными коммутаторами и другие особенности архитектуры усложняют кабельную подсистему, поэтому инженеры поначалу столкнулись с ростом ошибок при подключении сетевых интерфейсов. В настоящее время активно используются тесты, позволяющие проверить каждое подключение на соответствие идентификаторов портов и коммутаторов рабочим схемам. Отмечается, что параметры Ethernet-коммутаторов удваиваются каждые два года, поэтому компания уже разрабатывает сетевую архитектуру следующего поколения, рассчитанную на применение будущих ASIC 102,4 Тбит/с. По словам Alibaba Cloud, обучение LLM с сотнями миллиардов параметров потребует огромного распределённого кластера, количество ускорителей в котором исчисляется миллионами. И ему требуется соответствующая сетевая инфраструктура.
02.07.2024 [20:35], Владимир Мироненко
Lambda Labs готовит новый раунд финансирования на $800 млнСтартап Lambda Labs, специализирующийся на предоставлении в аренду облачных вычислительных мощностей с использованием ИИ-ускорителей NVIDIA, планирует провести третий раунд финансирования с целью привлечения $800 млн, сообщила газета Financial Times. По словам источников газеты, условия проведения раунда финансирования станут известны в середине июля. Его подготовкой, включая координацию сбора средств, занимается JPMorgan. Lambda Labs стремится получить максимум выгоды из ажиотажа вокруг ИИ-технологий на фоне нехватки ускорителей. Привлечение новых инвестиций сделает Lambda Labs одним из наиболее финансируемых стартапов Кремниевой долины за последние годы. Привлечённые в рамках нового раунда инвестиции предполагается направить на приобретение ИИ-ускорителей NVIDIA и соответствующего ПО для облачных сетей, а также использовать для найма дополнительного персонала. До этого компания из Сан-Хосе провела в феврале раунд финансирования Series C на сумму в $320 млн, в результате которого оценка её рыночной стоимости выросла до $1,5 млрд. Затем в апреле ей удалось привлечь инвестиции в размере $500 млн в рамках программы под руководством Macquarie Group при участии Фонда промышленного развития (IDF). Несмотря на значительное финансирование Lambda Labs, ей пока далеко до её конкурента — компании CoreWeave, которая в мае 2024 года привлекла $7,5 млрд в ходе раунда под руководством Blackstone и при стратегическом участии Magnetar и Coatue, и в том же месяце закрыла раунд финансирования серии C на сумму $1,1 млрд. Годом ранее CoreWeave получила $2,3 млрд долгового финансирования под залог ускорителей NVIDIA. На данный момент её рыночная стоимость оценивается в $19 млрд. |
|