Материалы по тегу: ии

07.05.2025 [18:23], Владимир Мироненко

AMD получила рекордную квартальную выручку, но ожидает до $1,5 млрд потерь из-за экспортных ограничений США

AMD сообщила о рекордной выручке в I квартале 2025 финансового года, закончившемся 29 марта. Выручка составила $7,44 млрд, что на 3 % меньше, чем в предыдущем квартале, но на 36 % больше в годовом исчислении, что, как пишет ресурс CRN, стало возможным благодаря значительному росту продаж ускорителей Instinct и процессоров EPYC, а также процессоров Ryzen для ПК. Согласно консенсус-прогнозу аналитиков, опрошенных LSEG, выручка должна была составить $7,13 млрд.

Чистая прибыль составила $709 млн или 44 цента на разводнённую акцию, по сравнению с $123 млн или 7 центов на акцию за аналогичный период годом ранее. Скорректированная прибыль (non-GAA) равняется $1,57 млрд или $0,96 на разводнённую акцию, что немного выше прогноза аналитиков, опрошенных LSEG, в $0,94 на разводнённую акцию.

«Несмотря на неопределённый макроэкономический фон, наши результаты за I квартал подчёркивают силу нашего дифференцированного портфеля продуктов и его реализацию, и хорошо позиционируют нас для сильного роста в 2025 году», — отметила генеральный директор AMD Лиза Су (Lisa Su) в отчёте компании за I квартал. Су сообщила, что компания расширяет инвестиции в свой полный програмнный стек для ИИ и возможности решений для ЦОД, которые получили импульс после завершения приобретения AMD ZT Systems за $4,9 млрд в марте.

Су сказала, что команда ZT Systems «полностью вовлечена и совместно с ключевыми клиентами уже разрабатывает оптимизированные конструкции уровня стойки». Компания также «работает с клиентами и OEM-партнёрами, чтобы ускорить выход на рынок» MI350.

 Источник изображений: AMD

Источник изображений: AMD

Выручка сегмента ЦОД за квартал составила $3,7 млрд, что на 57 % больше по сравнению с прошлым годом и выше прогноза аналитиков, опрошенных StreetAccount — в основном благодаря росту продаж процессоров AMD EPYC и ускорителей AMD Instinct. Компания отметила высокий спрос на EPYC со стороны предприятий, как в облаке, где количество инстансов на базе EPYC, активированных компаниями из списка Forbes 2000, более чем удвоилось по сравнению с прошлым годом, так и on-premise, где, по словам Су, их продажи стали выше «на большой двузначный процент по сравнению с прошлым годом» — рост наблюдается седьмой квартал подряд.

Су заявила, что партнёры AMD увеличили количество платформ на базе EPYC до более чем 450, а компания расширила совместные программы выхода на рынок. «В результате EPYC теперь используется всеми 10 крупнейшими телекоммуникационными, аэрокосмическими и полупроводниковыми компаниями, 9 из 10 крупнейших автомобильных, 7 из 10 крупнейших производственных и 6 из 10 крупнейших энергетических компаний из списка Forbes 2000», — добавила она.

Лиза Су сообщила, что выручка от продаж AMD Instinct увеличилась на «значительные двузначные проценты в годовом исчислении» благодаря поставкам чипов Instinct MI325X для новых корпоративных и облачных развертываний. По её словам, несколько гиперскейлеров расширили использование ускорителей Instinct, чтобы охватить всё больше вариантов использования генеративного ИИ, поиска, ранжирования и рекомендаций.

«В этом квартале мы также добавили несколько ключевых облачных и корпоративных клиентов, включая одного из крупнейших разработчиков передовых моделей, который теперь использует ускорители Instinct для обслуживания значительной части инференса», — рассказала Су. «Глубина и широта нашего взаимодействия с клиентами продолжают увеличиваться, поскольку прорывы в крупномасштабных моделях, такие как выход OpenAI 03 и DeepSeek R1, стимулируют рост спроса», — сказала Су.

По её словам, чтобы стимулировать внедрение ускорителей Instinct, компания «значительно ускорила» частоту выпуска обновлений своего программного стека ROCm AI. Теперь релизы выходят каждые две недели, а не ежеквартально, и содержат «готовые к развёртыванию контейнеры для обучения и инференса», которые «включают оптимизацию производительности и поддержку новейших библиотек, ядер и алгоритмов», отметила Лиза Су.

Су также сообщила, что AMD начала в I квартале тестировать ускорители Instinct MI350 следующего поколения с несколькими клиентами и готовится к старту их производства к середине этого года. «Интерес клиентов к серии MI350 очень высок, что создаёт условия для широкого развёртывания во II половине этого года», — сказала она. Ускоритель MI400 следующего поколения компания планирует выпустить в следующем году.

Сегмент встраиваемых решений, продажи которого в основном состоят из продуктов Xilinx, сократил выручку на 3% в годовом исчислении до $823 млн. При этом Су заявила, что спрос в сегменте продолжает «постепенно восстанавливаться». «Мы ожидаем, что улучшение спроса на рынках тестирования и измерений, связи и аэрокосмической отрасли приведёт к возобновлению роста во II половине 2025 года», — сказала она.

Выручка сегмента клиентских и игровых решений за квартал составила $2,9 млрд, увеличившись на 28 % по сравнению с прошлым годом. При этом выручка клиентского сегмента выросла год к году на 68 % до $2,3 млрд, в игровом сегменте упала на 30 % до $647 млн.

В текущем квартале AMD прогнозирует выручку около $7,4 млрд ± $300 млн, в то время как Уолл-стрит оценивает ожидаемые продажи в $7,25 млрд при скорректированной прибыли в 86 центов на разводнённую акцию. Также компания сообщила, что ожидает из-за экспортных ограничений около $700 млн упущенной выгоды в текущем квартале и $1,5 млрд в общей сложности до конца финансового года. Для сравнения, NVIDIA недосчитается $5,5 млрд только по итогам одного квартала.

Постоянный URL: http://servernews.kz/1122459
07.05.2025 [09:05], Владимир Мироненко

IBM разработала инструменты для быстрого создания и интеграции ИИ-агентов

IBM планирует укрепить свои позиции на быстрорастущем рынке ИИ-технологий с помощью увеличения инвестиций в США и предложения собственных инструментов, которые помогут клиентам управлять ИИ-агентами для их ключевых бизнес-приложений. Об этом сообщил генеральный директор IBM Арвинд Кришна (Arvind Krishna) в интервью агентству Reuters.

Глава IBM заявил, что разработанное компанией ПО позволяет клиентам создавать собственные ИИ-системы, а также интегрировать ИИ-агентов от других провайдеров, включая Salesforce, Adobe и Workday. Это поможет удовлетворить потребность в кастомных решениях во многих областях бизнеса.

Подход IBM заключается в том, чтобы предложить полный спектр облачных и ИИ-сервисов остальным компаниям, которые в настоящее время полагаются на лидеров рынка AWS и Microsoft. Особое внимание IBM уделяет внедрению функций ИИ в мультиоблачных платформах, что найдёт спрос среди тех, кому нужны кастомные ИИ-решения, а также в собственные инфраструктуры заказчиков для управления данными.

 Источник изображения: IBM

Источник изображения: IBM

По словам гендиректора IBM, предлагаемые инструменты, позволяющие создавать собственных ИИ-агентов в течение не более пяти минут, основаны на семействе LLM Granite, а также на альтернативных моделях от Meta Platforms и Mistral. IBM сообщила, что уже получила заказы на создание решений на базе генеративного ИИ на $6 млрд.

Также компания объявила в апреле о планах инвестировать в течение пяти лет $150 млрд в США, где она в течение более 60 лет производит мейнфреймы. Кришна подчеркнул, что квантовые компьютеры тоже будут производиться в США. Глава IBM отметил, что синергия мейнфреймов, ИИ и квантовых вычислений, как ожидается, создаст надёжный и устойчивый рынок, в который следует инвестировать и который позволит компании использовать эти достижения в течение следующего десятилетия.

Кришна добавил, что фокус на технологии и сокращение регулирования со стороны администрации оказали благотворное влияние на экономику США, способствуя её росту. Это позволяет IBM наращивать инвестиции и инновации, тем самым потенциально укрепляя свою конкурентную позицию как поставщика бизнес-решений на основе ИИ.

Постоянный URL: http://servernews.kz/1122412
06.05.2025 [21:12], Руслан Авдеев

Meta✴ Llama API задействует ИИ-ускорители Cerebras и Groq

Meta объединила усилия с Cerebras и Groq для инференс-сервиса с применением API Llama. Открыв API-доступ к собственным моделям, Meta становится чуть более похожа на облачных провайдеров.

Как утверждают в Cerebras, разработчики, применяющие API для работы с моделями Llama 4 Cerebras, могут получить скорость инференса до 18 раз выше, чем у традиционных решений на базе GPU. В компании объявили, что такое ускорение позволит использовать новейшее поколение приложений, которые невозможно построить на других ИИ-технологиях. Речь, например, идёт о «голосовых» решениях с низкой задержкой, интерактивной генерации кода, мгновенном многоэтапном рассуждении и т. п. — многие задачи можно решать за секунды, а не минуты.

После запуска инференс-платформы в 2024 году Cerebras обеспечила для Llama самый быстрый инференс, обрабатывая миллиарды токенов через собственную ИИ-инфраструктуру. Теперь прямой доступ к альтернативам решений OpenAI получит широкое сообщество разработчиков. По словам компании, партнёрство Cerebras и Meta позволит создавать ИИ-системы, «принципиально недосягаемые для ведущих облаков». Согласно замерам Artificial Analysis, Cerebras действительно предлагает самые быстрые решения для ИИ-инференса, более 2600 токенов/с для Llama 4 Scout.

 Источник изображения: ***

Источник изображения: Meta

При этом Cerebras не единственный партнёр Meta. Она также договорилась с Groq об использовании ускорителей Language Processing Units (LPU), которые обеспечивают высокую скорость (до 625 токенов/с), низкую задержку и хорошую масштабируемость при довольно низких издержках. Groq использует собственную вертикально интегрированную архитектуру, полностью контролируя и железо, и софт. Это позволяет добиться эффективности, недоступной в облаках на базе универсальных ИИ-чипов.

Партнёрство с Meta усиливает позиции Groq и Cerebras в борьбе с NVIDIA. Для Meta новое сотрудничество — очередной шаг в деле выпуска готовых open source ИИ-моделей, которые позволят сосредоточиться на исследованиях и разработке, фактически передав инференс надёжному партнёру. Разработчики могут легко перейти на новый стек без необходимости дообучения моделей или перенастройки ускорителей — API Llama совместимы с API OpenAI. Пока что доступ к новым API ограничен. Цены Meta также не сообщает.

Meta активно работает над продвижением своих ИИ-моделей. Так, она даже выступила с довольно необычной инициативой, предложив «коллегам-конкурентам» в лице Microsoft и Amazon, а также другим компаниям, поделиться ресурсами для развития и обучения моделей Llama.

Постоянный URL: http://servernews.kz/1122365
06.05.2025 [17:46], Владимир Мироненко

Эксперты: репрессии Трампа в отношении «зелёной» энергетики навредят США в гонке за ИИ-лидерство

Вступив в должность президента США, Дональд Трамп (Donald Trump) объявил самую настоящую войну «зелёной» энергетике. Одним из его первых распоряжений был указ о приостановке утверждения проектов в области чистой энергии на федеральных землях, пишет The Financial Times.

Также было приостановлено выделение федеральных займов на проекты в этой сфере, а в апреле Бюро по управлению энергией океана (Bureau of Ocean Energy Management, BOEM) направило компании Empire Offshore Wind предписание на время проведения проверки приостановить строительство ветропарка Empire Wind стоимостью $2,5 млрд у восточного побережья США.

По словам экспертов, отказ от возобновляемых источников энергии может привести к проблемам в электроснабжении технологических компаний, которые стремятся обеспечить надёжные поставки энергии для питания и обучения ИИ, что повлечёт за собой рост затрат и может подтолкнуть операторов к использованию более «грязной» энергии.

В Hitachi Vantara заявили, что «антагонистический подход» администрации Трампа к возобновляемым источникам энергии может сделать «невозможным удовлетворение [потребностей в обработке] всё растущих объёмов данных». В компании отметили, что стратегически США рискуют подорвать свою текущую позицию лидера в глобальной гонке ИИ, в то время как Китай активно занимается модернизацией энергосетей и эффективным распределением энергии. Дефицит энергии может «привести к отмене или задержкам в строительстве ЦОД или модернизации инфраструктуры», предупредила Hitachi Vantara.

 Источник изображения: James Whately/unsplash.com

Источник изображения: James Whately/unsplash.com

Ранее администрация Трампа заявила, что проигрыш в ИИ-гонке Китаю представляет большую угрозу для мира, чем глобальное потепление, выступив за увеличение использования ископаемого топлива для питания ЦОД. В свою очередь, эксперты предупреждают, что будет сложно удовлетворить растущий спрос без добавления гораздо большего количества мощностей возобновляемой энергии, запустить которые можно быстрее и дешевле, чем строить газовые электростанции.

Наступление Трампа на возобновляемые источники энергии обеспокоило ряд политиков, которые взяли курс на расширение использования ветроэнергетики для удовлетворения будущего спроса на электроэнергию. В минувший понедельник генеральные прокуроры 17 штатов подали в суд на администрацию Трампа в связи с её политикой по сворачиванию развития ветроэнергетики в США.

Также политика запрета возобновляемых источников энергии усложняет задачу Equinix, Microsoft, Google и Meta по компенсации выбросов и инвестированию в возобновляемые источники энергии. «Спрос [на возобновляемые источники энергии] достиг исторического максимума», — отметил Кристофер Уэллиз (Christopher Wellise), вице-президент по устойчивому развитию в Equinix, добавив, что в сочетании с ограничениями администрации Трампа это может вызвать проблемы с обеспечением энергией в среднесрочной перспективе.

Постоянный URL: http://servernews.kz/1122395
06.05.2025 [11:12], Сергей Карасёв

Nebius внедрит системы хранения DDN в свою ИИ-инфраструктуру

Компания DataDirect Networks (DDN), специализирующаяся на системах хранения данных для НРС, объявила о заключении партнёрского соглашения с разработчиком ИИ-решений Nebius (бывшая материнская структура «Яндекса»). В рамках соглашения стороны займутся созданием высокопроизводительной подсистемы хранения данных для ресурсоёмких ИИ-задач.

Речь идёт об интеграции решений DDN Infinia и EXAScaler в облачную инфраструктуру Nebius AI Cloud. Эти системы будут использоваться для хранения данных, предназначенных для обучения больших языковых моделей, инференса и поддержания работы ИИ-приложений в реальном времени.

По заявлениям DDN, Infinia гарантирует надёжность и передовую производительность, благодаря чему ускоряется обучение и развёртывание моделей ИИ. Вместе с тем EXAScaler обеспечивает высокую пропускную способность и согласованность операций ввода-вывода. Другим преимуществом названных решений является возможность масштабирования в рамках облачных и локальных развёртываний: заказчики смогут быстро наращивать ресурсы в ИИ-облаке Nebius, гибридных и изолированных средах, используя параллельную файловую систему EXAScaler.

 Источник изображения: Nebius

Источник изображения: Nebius

Утверждается, что Infinia и EXAScaler устраняют проблемы с задержками при обработке данных. В результате, нагрузки ИИ могут обрабатываться с максимальной эффективностью — даже в случае моделей с несколькими триллионами параметров. В целом, как отмечают партнёры, благодаря интеграции систем DDN в облако Nebius клиенты смогут решать ИИ-задачи с более высокой скоростью и с меньшими временными и финансовыми затратами.

Постоянный URL: http://servernews.kz/1122355
05.05.2025 [20:06], Владимир Мироненко

Google и Broadcom совместно обеспечат кибербезопасность своих решений

Поскольку мир становится всё более зависимым от цифровой инфраструктуры, кибербезопасность превратилась из вспомогательной функции в основополагающий элемент, пишет ресурс SiliconANGLE. Следовательно, она должна быть интегрирована на всех уровнях технологического стека — от оборудования до программного обеспечения, сетей и пользовательского опыта. Сотрудничество Google Cloud и Broadcom является наглядным подтверждением этого тезиса.

Роберт Садовски (Robert Sadowski), директор по маркетингу продуктов, безопасности и доверию Google Cloud, и Джейсон Роллстон (Jason Rolleston), генеральный менеджер Enterprise Security Group компании Broadcom, в ходе общения на конференции RSAC 2025 рассказали, как Google Cloud и Broadcom объединяют тесную интеграцию, ИИ и десятилетия эволюции ПО для создания решений по кибербезопасности следующего поколения.

 Источник изображения: FlyD

Источник изображения: FlyD/unsplash.com

Как пояснил Садовски, компания, разработавшая инновационные технологии для таких продуктов, как Google Search и Android, предлагает возможности своей платформы и решения по обеспечению безопасности предприятиям и партнёрам, таким как Broadcom, чтобы те могли создавать и внедрять инновации в собственные продукты. Аналогичным образом Google поступила с Cloud WAN — полностью управляемой корпоративной платформой для подключения к сетевой инфраструктуре Google.

В свою очередь, Роллстон подчеркнул, что Google Cloud WAN — это не просто сетевой продукт, а защищённая, масштабируемая и глобально распределённая магистраль, которая позволяет Broadcom развёртывать решения по периметру служб безопасности в масштабе, обеспечивая низкую задержку, высокую производительность и последовательное применение политик в любой точке мира. По его словам, Broadcom использовала это решение для обнаружения и нейтрализации нисходящих угроз, распространяющихся в нижних звеньях цепочки распределения сети.

Собеседники отметили, что хотя ИИ обеспечивает такие инновации, как предиктивная аналитика и обнаружение угроз в реальном времени, он также создаёт огромные объёмы данных и открывает новые векторы атак. Топ-менеджеры сообщили, что Google Cloud и Broadcom изначально интегрируют ИИ в функции безопасности своих продуктов. Это позволяет автоматизировать обнаружение, обеспечить расширенную веб-изоляцию и адаптивное применение политик без ущерба для производительности.

Постоянный URL: http://servernews.kz/1122326
05.05.2025 [13:28], Сергей Карасёв

GigaIO и d-Matrix предоставят инференс-платформу для масштабных ИИ-развёртываний

Компании GigaIO и d-Matrix объявили о стратегическом партнёрстве с целью создания «самого масштабируемого в мире» решения для инференса, ориентированного на крупные предприятия, которые разворачивают ИИ в большом масштабе. Ожидается, что новая платформа поможет устранить узкие места в плане производительности и упростить внедрение крупных ИИ-систем.

В рамках сотрудничества осуществлена интеграция ИИ-ускорителей d-Matrix Corsair в состав НРС-платформы GigaIO SuperNODE. Архитектура Corsair основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, ускоритель обеспечивает непревзойдённую производительность и эффективность инференса для генеративного ИИ. Устройство выполнено в виде карты расширения с интерфейсом PCIe 5.0 х16. Быстродействие достигает 2,4 Пфлопс с (8-бит вычисления). Изделие имеет двухслотовое исполнение, а показатель TDP равен 600 Вт.

В свою очередь, SuperNODE использует фирменную архитектуру FabreX на базе PCIe, которая позволяет объединять различные компоненты, включая GPU, FPGA и пулы памяти. По сравнению с обычными серверными кластерами SuperNODE обеспечивает более эффективное использование ресурсов.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

Новая модификация SuperNODE поддерживает десятки ускорителей Corsair в одном узле. Производительность составляет до 30 тыс. токенов в секунду при времени обработки 2 мс на токен для таких моделей, как Llama3 70B. По сравнению с решениями на базе GPU обещаны трёхкратное повышение энергоэффективности и в три раза более высокое быстродействие при сопоставимой стоимости владения.

«Наша система избавляет от необходимости создания сложных многоузловых конфигураций и упрощает развёртывание, позволяя предприятиям быстро адаптироваться к меняющимся рабочим нагрузкам ИИ, при этом значительно улучшая совокупную стоимость владения и операционную эффективность», — говорит Alan Benjamin (Алан Бенджамин), генеральный директор GigaIO.

Постоянный URL: http://servernews.kz/1122305
05.05.2025 [12:47], Сергей Карасёв

Терабитное облако: Backblaze запустила S3-хранилище B2 Overdrive для рабочих нагрузок ИИ и HPC

Американская компания Backblaze анонсировала облачное S3-хранилище B2 Overdrive, оптимизированное для нагрузок с интенсивным обменом данными, таких как задачи ИИ и НРС. Утверждается, что платформа в плане соотношения производительности/цены значительно превосходит предложения конкурентов.

Backblaze отмечает, что при работе с ресурсоёмкими приложениями ИИ, машинного обучения, доставки контента или аналитики, клиенты зачастую сталкиваются с выбором: платить больше за максимальную скорость доступа к облаку или жертвовать производительностью, чтобы сохранить расходы на приемлемом уровне. B2 Overdrive, как утверждается, решает эту проблему.

Новый сервис обеспечивает пропускную способность до 1 Тбит/с, а цена начинается с $15 за 1 Тбайт в месяц. Минимальный заказ — несколько Пбайт. Заявленный показатель безотказного функционирования — 99,9 %. Предоставляется бесплатный вывод данных из облака в трехкратном среднем ежемесячном объёме хранения клиента. После превышения этого значения стоимость составляет $0,01 за 1 Гбайт. Скидки за объём и сроки хранения доступны с сервисом B2 Reserve.

 Источник изображения: Backblaze

Источник изображения: Backblaze

Для хранения данных в облаке B2 Overdrive применяются HDD. Подключение к инфраструктуре клиента осуществляется через защищённую частную сеть. Информацию в экзабайтном масштабе можно свободно перемещать в любой кластер GPU или HPC с неограниченным бесплатным выводом.

Среди прочих преимуществ B2 Overdrive компания Backblaze выделяет отсутствие требований к минимальному размеру файлов, уведомления о событиях, а также бесплатное удаление информации. Приём заявок на подключение к сервису уже начался.

Постоянный URL: http://servernews.kz/1122306
05.05.2025 [12:38], Сергей Карасёв

McKinsey: инвестиции в ИИ ЦОД к 2030 году превысят $5 трлн

Консалтинговая компания McKinsey обнародовала прогноз по развитию дата-центров в глобальном масштабе до 2030 года. Аналитики отмечают, что ключевым драйвером отрасли будет оставаться ИИ, а операторы ЦОД и гиперскейлеры продолжат активно наращивать мощности.

В общей сложности, как ожидается, капиталовложения в дата-центры по всему миру к концу десятилетия достигнут $6,7 трлн. Из этой суммы, полагают специалисты McKinsey, примерно $5,2 трлн будет потрачено на объекты, оптимизированные для задач ИИ, а оставшиеся $1,5 трлн — на ЦОД, рассчитанные на традиционные рабочие нагрузки.

Если прогноз McKinsey оправдается, то в ИИ-сегменте из общей суммы в $5,2 трлн на строительные работы пойдёт приблизительно 15 %, или $800 млрд: это средства на землю, материалы и возведение необходимых сооружений. Ещё около 25 %, или $1,3 трлн, составят затраты, связанные с поставками и использованием энергии, включая электрическую инфраструктуру (трансформаторы, генераторы) и системы охлаждения. Оставшиеся 60 %, или $3,1 трлн, будут направлены на закупки необходимого IT-оборудования и систем, в том числе серверов, GPU-ускорителей, стоечных решений и пр.

 Источник изображения: McKinsey

Источник изображения: McKinsey

Вместе с инвестициями будут расти и мощности дата-центров. В 2025 году общемировой показатель, по данным McKinsey, окажется на уровне 82 ГВт, из которых 44 ГВт придётся на ИИ-нагрузки, ещё 38 ГВт — на традиционные задачи. К 2030 году суммарная мощность ЦОД достигнет 219 ГВт, в том числе 156 ГВт под нагрузки ИИ и 64 ГВт под прочие задачи. Таким образом, общая мощность дата-центров для приложений ИИ в период 2025–2030 гг. поднимется приблизительно в 3,5 раза.

Постоянный URL: http://servernews.kz/1122308
04.05.2025 [01:05], Руслан Авдеев

Google призвала к реформам в области энергетики и внедрению малых модульных реакторов

Google призывает политиков США заняться модернизацией энергетической и бюрократической систем для удовлетворения растущих потребностей ИИ ЦОД. В недавно опубликованном документе Powering a New Era of American Innovation руководство Google призвало Конгресс США и федеральные ведомства оптимизировать процессы выдачи профильных разрешений, ускорить строительство линий электропередачи (ЛЭП) и расширить доступ к источникам «чистой» энергии, в том числе — поддержать атомные технологии вроде малых модульных реакторов (SMR).

В документе утверждается, что стремительный рост ИИ-нагрузок потребует масштабного расширения инфраструктуры в США, которое бывает «раз в поколение». Эксперты предупреждают, что без быстрой выдачи разрешений регуляторами и «энергетической диверсификации» Соединённые Штаты могут отстать в гонке за глобальную технологическую конкурентоспособность.

Сама Google обязуется инвестировать в «чистую» энергию, в т.ч. долгосрочные закупки «безуглеродного» электричества. Федеральные власти компания призывает усилить специальные программы вроде LPO Министерства энергетики, а также продвигать технологии нового поколения вроде современных геотермальных электростанций и SMR — помимо проектов солнечной и ветряной энергии для ЦОД.

 Источник изображения: Google

Источник изображения: Google

В частности, конгрессменов призывают модернизировать федеральную систему выдачи разрешений, упростив процесс утверждения проектов в сфере ЦОД и энергетики, а малым ядерным реакторам рекомендуют обеспечить федеральную поддержку. То же относится и к геотермальным проектам, которые относятся к «чистым и надёжным» источникам энергии. Компания также намерена добиваться расширения ЛЭП с попутным реформированием подхода к распределению затрат в данном секторе.

В Google поддерживают дальнейшее финансирование Управления программ кредитования Министерства энергетики США (Loan Programs Office, LPO) для того, чтобы ускорить внедрение чистой энергии. Особое внимание уделяется необходимости обучения квалифицированной рабочей силы, в т.ч. 100 тыс. электриков и 30 тыс. помощников для ИИ-инфраструктуры. В компании предупредили, что ИИ-инфраструктура способна стагнировать без серьёзных реформ в генерации, передаче и обеспечении доступности электроэнергии.

Сама Google участвует во многих энергетических проектах. Например, в июне 2024 года сообщалось, что Google запитает от геотермальной энергии ЦОД в Неваде, в декабре 2024 года сообщалось, что компания пристроит к своим ИИ ЦОД гигаваттные энергокомплексы в некоторых регионах, а минувшем марте появилась информация, что Amazon, Meta и Google помогут утроить мощность АЭС во всём мире к 2050 году. В частности, в октябре 2024 года появились сведения, что Google запитает свои ЦОД от малых модульных реакторов Kairos Power.

Постоянный URL: http://servernews.kz/1122207

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus