Материалы по тегу: ии
07.05.2025 [18:23], Владимир Мироненко
AMD получила рекордную квартальную выручку, но ожидает до $1,5 млрд потерь из-за экспортных ограничений СШАAMD сообщила о рекордной выручке в I квартале 2025 финансового года, закончившемся 29 марта. Выручка составила $7,44 млрд, что на 3 % меньше, чем в предыдущем квартале, но на 36 % больше в годовом исчислении, что, как пишет ресурс CRN, стало возможным благодаря значительному росту продаж ускорителей Instinct и процессоров EPYC, а также процессоров Ryzen для ПК. Согласно консенсус-прогнозу аналитиков, опрошенных LSEG, выручка должна была составить $7,13 млрд. Чистая прибыль составила $709 млн или 44 цента на разводнённую акцию, по сравнению с $123 млн или 7 центов на акцию за аналогичный период годом ранее. Скорректированная прибыль (non-GAA) равняется $1,57 млрд или $0,96 на разводнённую акцию, что немного выше прогноза аналитиков, опрошенных LSEG, в $0,94 на разводнённую акцию. «Несмотря на неопределённый макроэкономический фон, наши результаты за I квартал подчёркивают силу нашего дифференцированного портфеля продуктов и его реализацию, и хорошо позиционируют нас для сильного роста в 2025 году», — отметила генеральный директор AMD Лиза Су (Lisa Su) в отчёте компании за I квартал. Су сообщила, что компания расширяет инвестиции в свой полный програмнный стек для ИИ и возможности решений для ЦОД, которые получили импульс после завершения приобретения AMD ZT Systems за $4,9 млрд в марте. Су сказала, что команда ZT Systems «полностью вовлечена и совместно с ключевыми клиентами уже разрабатывает оптимизированные конструкции уровня стойки». Компания также «работает с клиентами и OEM-партнёрами, чтобы ускорить выход на рынок» MI350. Выручка сегмента ЦОД за квартал составила $3,7 млрд, что на 57 % больше по сравнению с прошлым годом и выше прогноза аналитиков, опрошенных StreetAccount — в основном благодаря росту продаж процессоров AMD EPYC и ускорителей AMD Instinct. Компания отметила высокий спрос на EPYC со стороны предприятий, как в облаке, где количество инстансов на базе EPYC, активированных компаниями из списка Forbes 2000, более чем удвоилось по сравнению с прошлым годом, так и on-premise, где, по словам Су, их продажи стали выше «на большой двузначный процент по сравнению с прошлым годом» — рост наблюдается седьмой квартал подряд. Су заявила, что партнёры AMD увеличили количество платформ на базе EPYC до более чем 450, а компания расширила совместные программы выхода на рынок. «В результате EPYC теперь используется всеми 10 крупнейшими телекоммуникационными, аэрокосмическими и полупроводниковыми компаниями, 9 из 10 крупнейших автомобильных, 7 из 10 крупнейших производственных и 6 из 10 крупнейших энергетических компаний из списка Forbes 2000», — добавила она. Лиза Су сообщила, что выручка от продаж AMD Instinct увеличилась на «значительные двузначные проценты в годовом исчислении» благодаря поставкам чипов Instinct MI325X для новых корпоративных и облачных развертываний. По её словам, несколько гиперскейлеров расширили использование ускорителей Instinct, чтобы охватить всё больше вариантов использования генеративного ИИ, поиска, ранжирования и рекомендаций. «В этом квартале мы также добавили несколько ключевых облачных и корпоративных клиентов, включая одного из крупнейших разработчиков передовых моделей, который теперь использует ускорители Instinct для обслуживания значительной части инференса», — рассказала Су. «Глубина и широта нашего взаимодействия с клиентами продолжают увеличиваться, поскольку прорывы в крупномасштабных моделях, такие как выход OpenAI 03 и DeepSeek R1, стимулируют рост спроса», — сказала Су. По её словам, чтобы стимулировать внедрение ускорителей Instinct, компания «значительно ускорила» частоту выпуска обновлений своего программного стека ROCm AI. Теперь релизы выходят каждые две недели, а не ежеквартально, и содержат «готовые к развёртыванию контейнеры для обучения и инференса», которые «включают оптимизацию производительности и поддержку новейших библиотек, ядер и алгоритмов», отметила Лиза Су. Су также сообщила, что AMD начала в I квартале тестировать ускорители Instinct MI350 следующего поколения с несколькими клиентами и готовится к старту их производства к середине этого года. «Интерес клиентов к серии MI350 очень высок, что создаёт условия для широкого развёртывания во II половине этого года», — сказала она. Ускоритель MI400 следующего поколения компания планирует выпустить в следующем году. Сегмент встраиваемых решений, продажи которого в основном состоят из продуктов Xilinx, сократил выручку на 3% в годовом исчислении до $823 млн. При этом Су заявила, что спрос в сегменте продолжает «постепенно восстанавливаться». «Мы ожидаем, что улучшение спроса на рынках тестирования и измерений, связи и аэрокосмической отрасли приведёт к возобновлению роста во II половине 2025 года», — сказала она. Выручка сегмента клиентских и игровых решений за квартал составила $2,9 млрд, увеличившись на 28 % по сравнению с прошлым годом. При этом выручка клиентского сегмента выросла год к году на 68 % до $2,3 млрд, в игровом сегменте упала на 30 % до $647 млн. В текущем квартале AMD прогнозирует выручку около $7,4 млрд ± $300 млн, в то время как Уолл-стрит оценивает ожидаемые продажи в $7,25 млрд при скорректированной прибыли в 86 центов на разводнённую акцию. Также компания сообщила, что ожидает из-за экспортных ограничений около $700 млн упущенной выгоды в текущем квартале и $1,5 млрд в общей сложности до конца финансового года. Для сравнения, NVIDIA недосчитается $5,5 млрд только по итогам одного квартала.
07.05.2025 [09:05], Владимир Мироненко
IBM разработала инструменты для быстрого создания и интеграции ИИ-агентовIBM планирует укрепить свои позиции на быстрорастущем рынке ИИ-технологий с помощью увеличения инвестиций в США и предложения собственных инструментов, которые помогут клиентам управлять ИИ-агентами для их ключевых бизнес-приложений. Об этом сообщил генеральный директор IBM Арвинд Кришна (Arvind Krishna) в интервью агентству Reuters. Глава IBM заявил, что разработанное компанией ПО позволяет клиентам создавать собственные ИИ-системы, а также интегрировать ИИ-агентов от других провайдеров, включая Salesforce, Adobe и Workday. Это поможет удовлетворить потребность в кастомных решениях во многих областях бизнеса. Подход IBM заключается в том, чтобы предложить полный спектр облачных и ИИ-сервисов остальным компаниям, которые в настоящее время полагаются на лидеров рынка AWS и Microsoft. Особое внимание IBM уделяет внедрению функций ИИ в мультиоблачных платформах, что найдёт спрос среди тех, кому нужны кастомные ИИ-решения, а также в собственные инфраструктуры заказчиков для управления данными. ![]() Источник изображения: IBM По словам гендиректора IBM, предлагаемые инструменты, позволяющие создавать собственных ИИ-агентов в течение не более пяти минут, основаны на семействе LLM Granite, а также на альтернативных моделях от Meta✴ Platforms и Mistral. IBM сообщила, что уже получила заказы на создание решений на базе генеративного ИИ на $6 млрд. Также компания объявила в апреле о планах инвестировать в течение пяти лет $150 млрд в США, где она в течение более 60 лет производит мейнфреймы. Кришна подчеркнул, что квантовые компьютеры тоже будут производиться в США. Глава IBM отметил, что синергия мейнфреймов, ИИ и квантовых вычислений, как ожидается, создаст надёжный и устойчивый рынок, в который следует инвестировать и который позволит компании использовать эти достижения в течение следующего десятилетия. Кришна добавил, что фокус на технологии и сокращение регулирования со стороны администрации оказали благотворное влияние на экономику США, способствуя её росту. Это позволяет IBM наращивать инвестиции и инновации, тем самым потенциально укрепляя свою конкурентную позицию как поставщика бизнес-решений на основе ИИ.
06.05.2025 [21:12], Руслан Авдеев
Meta✴ Llama API задействует ИИ-ускорители Cerebras и GroqMeta✴ объединила усилия с Cerebras и Groq для инференс-сервиса с применением API Llama. Открыв API-доступ к собственным моделям, Meta✴ становится чуть более похожа на облачных провайдеров. Как утверждают в Cerebras, разработчики, применяющие API для работы с моделями Llama 4 Cerebras, могут получить скорость инференса до 18 раз выше, чем у традиционных решений на базе GPU. В компании объявили, что такое ускорение позволит использовать новейшее поколение приложений, которые невозможно построить на других ИИ-технологиях. Речь, например, идёт о «голосовых» решениях с низкой задержкой, интерактивной генерации кода, мгновенном многоэтапном рассуждении и т. п. — многие задачи можно решать за секунды, а не минуты. После запуска инференс-платформы в 2024 году Cerebras обеспечила для Llama самый быстрый инференс, обрабатывая миллиарды токенов через собственную ИИ-инфраструктуру. Теперь прямой доступ к альтернативам решений OpenAI получит широкое сообщество разработчиков. По словам компании, партнёрство Cerebras и Meta✴ позволит создавать ИИ-системы, «принципиально недосягаемые для ведущих облаков». Согласно замерам Artificial Analysis, Cerebras действительно предлагает самые быстрые решения для ИИ-инференса, более 2600 токенов/с для Llama 4 Scout. ![]() Источник изображения: Meta✴ При этом Cerebras не единственный партнёр Meta✴. Она также договорилась с Groq об использовании ускорителей Language Processing Units (LPU), которые обеспечивают высокую скорость (до 625 токенов/с), низкую задержку и хорошую масштабируемость при довольно низких издержках. Groq использует собственную вертикально интегрированную архитектуру, полностью контролируя и железо, и софт. Это позволяет добиться эффективности, недоступной в облаках на базе универсальных ИИ-чипов. Партнёрство с Meta✴ усиливает позиции Groq и Cerebras в борьбе с NVIDIA. Для Meta✴ новое сотрудничество — очередной шаг в деле выпуска готовых open source ИИ-моделей, которые позволят сосредоточиться на исследованиях и разработке, фактически передав инференс надёжному партнёру. Разработчики могут легко перейти на новый стек без необходимости дообучения моделей или перенастройки ускорителей — API Llama совместимы с API OpenAI. Пока что доступ к новым API ограничен. Цены Meta✴ также не сообщает. Meta✴ активно работает над продвижением своих ИИ-моделей. Так, она даже выступила с довольно необычной инициативой, предложив «коллегам-конкурентам» в лице Microsoft и Amazon, а также другим компаниям, поделиться ресурсами для развития и обучения моделей Llama.
06.05.2025 [17:46], Владимир Мироненко
Эксперты: репрессии Трампа в отношении «зелёной» энергетики навредят США в гонке за ИИ-лидерствоВступив в должность президента США, Дональд Трамп (Donald Trump) объявил самую настоящую войну «зелёной» энергетике. Одним из его первых распоряжений был указ о приостановке утверждения проектов в области чистой энергии на федеральных землях, пишет The Financial Times. Также было приостановлено выделение федеральных займов на проекты в этой сфере, а в апреле Бюро по управлению энергией океана (Bureau of Ocean Energy Management, BOEM) направило компании Empire Offshore Wind предписание на время проведения проверки приостановить строительство ветропарка Empire Wind стоимостью $2,5 млрд у восточного побережья США. По словам экспертов, отказ от возобновляемых источников энергии может привести к проблемам в электроснабжении технологических компаний, которые стремятся обеспечить надёжные поставки энергии для питания и обучения ИИ, что повлечёт за собой рост затрат и может подтолкнуть операторов к использованию более «грязной» энергии. В Hitachi Vantara заявили, что «антагонистический подход» администрации Трампа к возобновляемым источникам энергии может сделать «невозможным удовлетворение [потребностей в обработке] всё растущих объёмов данных». В компании отметили, что стратегически США рискуют подорвать свою текущую позицию лидера в глобальной гонке ИИ, в то время как Китай активно занимается модернизацией энергосетей и эффективным распределением энергии. Дефицит энергии может «привести к отмене или задержкам в строительстве ЦОД или модернизации инфраструктуры», предупредила Hitachi Vantara. ![]() Источник изображения: James Whately/unsplash.com Ранее администрация Трампа заявила, что проигрыш в ИИ-гонке Китаю представляет большую угрозу для мира, чем глобальное потепление, выступив за увеличение использования ископаемого топлива для питания ЦОД. В свою очередь, эксперты предупреждают, что будет сложно удовлетворить растущий спрос без добавления гораздо большего количества мощностей возобновляемой энергии, запустить которые можно быстрее и дешевле, чем строить газовые электростанции. Наступление Трампа на возобновляемые источники энергии обеспокоило ряд политиков, которые взяли курс на расширение использования ветроэнергетики для удовлетворения будущего спроса на электроэнергию. В минувший понедельник генеральные прокуроры 17 штатов подали в суд на администрацию Трампа в связи с её политикой по сворачиванию развития ветроэнергетики в США. Также политика запрета возобновляемых источников энергии усложняет задачу Equinix, Microsoft, Google и Meta✴ по компенсации выбросов и инвестированию в возобновляемые источники энергии. «Спрос [на возобновляемые источники энергии] достиг исторического максимума», — отметил Кристофер Уэллиз (Christopher Wellise), вице-президент по устойчивому развитию в Equinix, добавив, что в сочетании с ограничениями администрации Трампа это может вызвать проблемы с обеспечением энергией в среднесрочной перспективе.
06.05.2025 [11:12], Сергей Карасёв
Nebius внедрит системы хранения DDN в свою ИИ-инфраструктуруКомпания DataDirect Networks (DDN), специализирующаяся на системах хранения данных для НРС, объявила о заключении партнёрского соглашения с разработчиком ИИ-решений Nebius (бывшая материнская структура «Яндекса»). В рамках соглашения стороны займутся созданием высокопроизводительной подсистемы хранения данных для ресурсоёмких ИИ-задач. Речь идёт об интеграции решений DDN Infinia и EXAScaler в облачную инфраструктуру Nebius AI Cloud. Эти системы будут использоваться для хранения данных, предназначенных для обучения больших языковых моделей, инференса и поддержания работы ИИ-приложений в реальном времени. По заявлениям DDN, Infinia гарантирует надёжность и передовую производительность, благодаря чему ускоряется обучение и развёртывание моделей ИИ. Вместе с тем EXAScaler обеспечивает высокую пропускную способность и согласованность операций ввода-вывода. Другим преимуществом названных решений является возможность масштабирования в рамках облачных и локальных развёртываний: заказчики смогут быстро наращивать ресурсы в ИИ-облаке Nebius, гибридных и изолированных средах, используя параллельную файловую систему EXAScaler. ![]() Источник изображения: Nebius Утверждается, что Infinia и EXAScaler устраняют проблемы с задержками при обработке данных. В результате, нагрузки ИИ могут обрабатываться с максимальной эффективностью — даже в случае моделей с несколькими триллионами параметров. В целом, как отмечают партнёры, благодаря интеграции систем DDN в облако Nebius клиенты смогут решать ИИ-задачи с более высокой скоростью и с меньшими временными и финансовыми затратами.
05.05.2025 [20:06], Владимир Мироненко
Google и Broadcom совместно обеспечат кибербезопасность своих решенийПоскольку мир становится всё более зависимым от цифровой инфраструктуры, кибербезопасность превратилась из вспомогательной функции в основополагающий элемент, пишет ресурс SiliconANGLE. Следовательно, она должна быть интегрирована на всех уровнях технологического стека — от оборудования до программного обеспечения, сетей и пользовательского опыта. Сотрудничество Google Cloud и Broadcom является наглядным подтверждением этого тезиса. Роберт Садовски (Robert Sadowski), директор по маркетингу продуктов, безопасности и доверию Google Cloud, и Джейсон Роллстон (Jason Rolleston), генеральный менеджер Enterprise Security Group компании Broadcom, в ходе общения на конференции RSAC 2025 рассказали, как Google Cloud и Broadcom объединяют тесную интеграцию, ИИ и десятилетия эволюции ПО для создания решений по кибербезопасности следующего поколения. ![]() Источник изображения: FlyD/unsplash.com Как пояснил Садовски, компания, разработавшая инновационные технологии для таких продуктов, как Google Search и Android, предлагает возможности своей платформы и решения по обеспечению безопасности предприятиям и партнёрам, таким как Broadcom, чтобы те могли создавать и внедрять инновации в собственные продукты. Аналогичным образом Google поступила с Cloud WAN — полностью управляемой корпоративной платформой для подключения к сетевой инфраструктуре Google. В свою очередь, Роллстон подчеркнул, что Google Cloud WAN — это не просто сетевой продукт, а защищённая, масштабируемая и глобально распределённая магистраль, которая позволяет Broadcom развёртывать решения по периметру служб безопасности в масштабе, обеспечивая низкую задержку, высокую производительность и последовательное применение политик в любой точке мира. По его словам, Broadcom использовала это решение для обнаружения и нейтрализации нисходящих угроз, распространяющихся в нижних звеньях цепочки распределения сети. Собеседники отметили, что хотя ИИ обеспечивает такие инновации, как предиктивная аналитика и обнаружение угроз в реальном времени, он также создаёт огромные объёмы данных и открывает новые векторы атак. Топ-менеджеры сообщили, что Google Cloud и Broadcom изначально интегрируют ИИ в функции безопасности своих продуктов. Это позволяет автоматизировать обнаружение, обеспечить расширенную веб-изоляцию и адаптивное применение политик без ущерба для производительности.
05.05.2025 [13:28], Сергей Карасёв
GigaIO и d-Matrix предоставят инференс-платформу для масштабных ИИ-развёртыванийКомпании GigaIO и d-Matrix объявили о стратегическом партнёрстве с целью создания «самого масштабируемого в мире» решения для инференса, ориентированного на крупные предприятия, которые разворачивают ИИ в большом масштабе. Ожидается, что новая платформа поможет устранить узкие места в плане производительности и упростить внедрение крупных ИИ-систем. В рамках сотрудничества осуществлена интеграция ИИ-ускорителей d-Matrix Corsair в состав НРС-платформы GigaIO SuperNODE. Архитектура Corsair основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, ускоритель обеспечивает непревзойдённую производительность и эффективность инференса для генеративного ИИ. Устройство выполнено в виде карты расширения с интерфейсом PCIe 5.0 х16. Быстродействие достигает 2,4 Пфлопс с (8-бит вычисления). Изделие имеет двухслотовое исполнение, а показатель TDP равен 600 Вт. В свою очередь, SuperNODE использует фирменную архитектуру FabreX на базе PCIe, которая позволяет объединять различные компоненты, включая GPU, FPGA и пулы памяти. По сравнению с обычными серверными кластерами SuperNODE обеспечивает более эффективное использование ресурсов. ![]() Источник изображения: d-Matrix Новая модификация SuperNODE поддерживает десятки ускорителей Corsair в одном узле. Производительность составляет до 30 тыс. токенов в секунду при времени обработки 2 мс на токен для таких моделей, как Llama3 70B. По сравнению с решениями на базе GPU обещаны трёхкратное повышение энергоэффективности и в три раза более высокое быстродействие при сопоставимой стоимости владения. «Наша система избавляет от необходимости создания сложных многоузловых конфигураций и упрощает развёртывание, позволяя предприятиям быстро адаптироваться к меняющимся рабочим нагрузкам ИИ, при этом значительно улучшая совокупную стоимость владения и операционную эффективность», — говорит Alan Benjamin (Алан Бенджамин), генеральный директор GigaIO.
05.05.2025 [12:47], Сергей Карасёв
Терабитное облако: Backblaze запустила S3-хранилище B2 Overdrive для рабочих нагрузок ИИ и HPCАмериканская компания Backblaze анонсировала облачное S3-хранилище B2 Overdrive, оптимизированное для нагрузок с интенсивным обменом данными, таких как задачи ИИ и НРС. Утверждается, что платформа в плане соотношения производительности/цены значительно превосходит предложения конкурентов. Backblaze отмечает, что при работе с ресурсоёмкими приложениями ИИ, машинного обучения, доставки контента или аналитики, клиенты зачастую сталкиваются с выбором: платить больше за максимальную скорость доступа к облаку или жертвовать производительностью, чтобы сохранить расходы на приемлемом уровне. B2 Overdrive, как утверждается, решает эту проблему. Новый сервис обеспечивает пропускную способность до 1 Тбит/с, а цена начинается с $15 за 1 Тбайт в месяц. Минимальный заказ — несколько Пбайт. Заявленный показатель безотказного функционирования — 99,9 %. Предоставляется бесплатный вывод данных из облака в трехкратном среднем ежемесячном объёме хранения клиента. После превышения этого значения стоимость составляет $0,01 за 1 Гбайт. Скидки за объём и сроки хранения доступны с сервисом B2 Reserve. Для хранения данных в облаке B2 Overdrive применяются HDD. Подключение к инфраструктуре клиента осуществляется через защищённую частную сеть. Информацию в экзабайтном масштабе можно свободно перемещать в любой кластер GPU или HPC с неограниченным бесплатным выводом. Среди прочих преимуществ B2 Overdrive компания Backblaze выделяет отсутствие требований к минимальному размеру файлов, уведомления о событиях, а также бесплатное удаление информации. Приём заявок на подключение к сервису уже начался.
05.05.2025 [12:38], Сергей Карасёв
McKinsey: инвестиции в ИИ ЦОД к 2030 году превысят $5 трлнКонсалтинговая компания McKinsey обнародовала прогноз по развитию дата-центров в глобальном масштабе до 2030 года. Аналитики отмечают, что ключевым драйвером отрасли будет оставаться ИИ, а операторы ЦОД и гиперскейлеры продолжат активно наращивать мощности. В общей сложности, как ожидается, капиталовложения в дата-центры по всему миру к концу десятилетия достигнут $6,7 трлн. Из этой суммы, полагают специалисты McKinsey, примерно $5,2 трлн будет потрачено на объекты, оптимизированные для задач ИИ, а оставшиеся $1,5 трлн — на ЦОД, рассчитанные на традиционные рабочие нагрузки. Если прогноз McKinsey оправдается, то в ИИ-сегменте из общей суммы в $5,2 трлн на строительные работы пойдёт приблизительно 15 %, или $800 млрд: это средства на землю, материалы и возведение необходимых сооружений. Ещё около 25 %, или $1,3 трлн, составят затраты, связанные с поставками и использованием энергии, включая электрическую инфраструктуру (трансформаторы, генераторы) и системы охлаждения. Оставшиеся 60 %, или $3,1 трлн, будут направлены на закупки необходимого IT-оборудования и систем, в том числе серверов, GPU-ускорителей, стоечных решений и пр. Вместе с инвестициями будут расти и мощности дата-центров. В 2025 году общемировой показатель, по данным McKinsey, окажется на уровне 82 ГВт, из которых 44 ГВт придётся на ИИ-нагрузки, ещё 38 ГВт — на традиционные задачи. К 2030 году суммарная мощность ЦОД достигнет 219 ГВт, в том числе 156 ГВт под нагрузки ИИ и 64 ГВт под прочие задачи. Таким образом, общая мощность дата-центров для приложений ИИ в период 2025–2030 гг. поднимется приблизительно в 3,5 раза.
04.05.2025 [01:05], Руслан Авдеев
Google призвала к реформам в области энергетики и внедрению малых модульных реакторовGoogle призывает политиков США заняться модернизацией энергетической и бюрократической систем для удовлетворения растущих потребностей ИИ ЦОД. В недавно опубликованном документе Powering a New Era of American Innovation руководство Google призвало Конгресс США и федеральные ведомства оптимизировать процессы выдачи профильных разрешений, ускорить строительство линий электропередачи (ЛЭП) и расширить доступ к источникам «чистой» энергии, в том числе — поддержать атомные технологии вроде малых модульных реакторов (SMR). В документе утверждается, что стремительный рост ИИ-нагрузок потребует масштабного расширения инфраструктуры в США, которое бывает «раз в поколение». Эксперты предупреждают, что без быстрой выдачи разрешений регуляторами и «энергетической диверсификации» Соединённые Штаты могут отстать в гонке за глобальную технологическую конкурентоспособность. Сама Google обязуется инвестировать в «чистую» энергию, в т.ч. долгосрочные закупки «безуглеродного» электричества. Федеральные власти компания призывает усилить специальные программы вроде LPO Министерства энергетики, а также продвигать технологии нового поколения вроде современных геотермальных электростанций и SMR — помимо проектов солнечной и ветряной энергии для ЦОД. В частности, конгрессменов призывают модернизировать федеральную систему выдачи разрешений, упростив процесс утверждения проектов в сфере ЦОД и энергетики, а малым ядерным реакторам рекомендуют обеспечить федеральную поддержку. То же относится и к геотермальным проектам, которые относятся к «чистым и надёжным» источникам энергии. Компания также намерена добиваться расширения ЛЭП с попутным реформированием подхода к распределению затрат в данном секторе. В Google поддерживают дальнейшее финансирование Управления программ кредитования Министерства энергетики США (Loan Programs Office, LPO) для того, чтобы ускорить внедрение чистой энергии. Особое внимание уделяется необходимости обучения квалифицированной рабочей силы, в т.ч. 100 тыс. электриков и 30 тыс. помощников для ИИ-инфраструктуры. В компании предупредили, что ИИ-инфраструктура способна стагнировать без серьёзных реформ в генерации, передаче и обеспечении доступности электроэнергии. Сама Google участвует во многих энергетических проектах. Например, в июне 2024 года сообщалось, что Google запитает от геотермальной энергии ЦОД в Неваде, в декабре 2024 года сообщалось, что компания пристроит к своим ИИ ЦОД гигаваттные энергокомплексы в некоторых регионах, а минувшем марте появилась информация, что Amazon, Meta✴ и Google помогут утроить мощность АЭС во всём мире к 2050 году. В частности, в октябре 2024 года появились сведения, что Google запитает свои ЦОД от малых модульных реакторов Kairos Power. |
|