Материалы по тегу: ии
18.08.2025 [14:09], Владимир Мироненко
OpenAI намерена потратить триллионы долларов на ИИ-инфраструктуру, но для начала их надо где-то найтиГенеральный директор OpenAI Сэм Альтман (Sam Altman) рассчитывает, что со временем компания потратит на создание ИИ-инфраструктуры триллионы долларов — однако нужно найти способ привлечь такие средства для реализации его планов, пишет Bloomberg. «Следует ожидать, что OpenAI потратит триллионы долларов на строительство ЦОД в “недалёком будущем”», — заявил Альтман журналистам в ходе брифинга. Он добавил, что «кучка экономистов» назовёт это безрассудством, на что будет ответ: «Знаете что? Позвольте нам заниматься своим делом». По словам Альтмана, стартап разрабатывает новый способ финансирования. «Мы можем разработать очень интересный новый вид инструмента для финансов и вычислений, который мир ещё не изобрел», — сказал он. Ранее было объявлено, что в течение четырёх лет на инфраструктурный проект Stargate будет израсходовано $500 млрд, но Альтман предполагает выйти далеко за рамки этой суммы. Альтман также сообщил, что видит параллели между нынешним инвестиционным ажиотажем в области ИИ и пузырём доткомов в конце 1990-х годов. По его словам, в обоих случаях «умные люди» были «чрезмерно воодушевлены» новой технологией. Но в каждом случае, по его мнению, эта технология была «реальной» и в конечном итоге должна была оказать долгосрочное влияние на деловой мир и общество. Глава OpenAI заявил, что считает развитие ИИ-технологий самым важным событием за очень долгое время, отметив, что «общество в целом» вряд ли пожалеет об огромных инвестициях в ИИ, но также признал, что считает некоторые текущие оценки стартапов «безумными» и «иррациональными»: «Кто-то на этом обожжётся». Несмотря на то, что OpenAI «потратит много денег», в конечном итоге это окупится и принесёт «огромную прибыль», пообещал Сэм Альтман: «Для нас очень разумно продолжать инвестировать прямо сейчас». Планы OpenAI также включают первичное публичное размещение акций в будущем, но Альтман отказался назвать конкретные сроки проведения IPO. «Я думаю, что когда-нибудь нам, вероятно, придётся выйти на биржу», — сказал гендиректор, отметив, что он не очень «хорошо подходит» для должности гендиректора публичной компании. В настоящее время OpenAI завершает сложную корпоративную реструктуризацию, которая продолжается уже несколько месяцев, отмечает Bloomberg.
18.08.2025 [11:55], Руслан Авдеев
ИИ поможет Rolls-Royce стать самым дорогим бизнесом ВеликобританииRolls-Royce сделала ставку на малые модульные ядерные реакторы (SMR). Ожидается, что это поможет удовлетворить спрос на электроэнергию со стороны ИИ ЦОД. По словам руководства компании, эта стратегия может вывести промышленного гиганта в лидеры Лондонской фондовой биржи, сообщает eWeek. На сегодня она подписала с правительством Великобритании соглашение о строительстве первых трёх SMR, каждый из которых рассчитан на выработку 470 МВт электричества. Также Rolls-Royce намерена построить шесть аналогичных реакторов в Чехии, общая мощность которых составит 3 ГВт. Возможно, будут построены и два реактора в Швеции. Кроме того, SMR компании запитают нидерландские ЦОД Equinix. По прогнозам Международного энергетического агентства (IEA), к 2050 году мировой рынок SMR может составить около £500 млрд ($678) из-за огромных энергетических потребностей ИИ. В Rolls-Royse заявили, что спрос со стороны владельцев дата-центров способствовал пятидесятипроцентному росту её полугодовой прибыли. В июле компания сообщила, что спрос на её резервные генераторы для ЦОД очень высок, заказы год к году выросли на 85 %. Ожидается рост выручки в сегменте генерации энергии в среднесрочной перспективе приблизительно на 20 % ежегодно. По оценкам компании, к 2050 году миру потребуется 400 SMR, а стоимость каждого составит до £2,2 млрд ($3 млрд), хотя со временем она будет снижаться по мере роста производства. В Rolls-Royse рассчитывают занять лидирующие позиции на рынке, благо компания уже поставляет реакторы схожей конструкции для многочисленных атомных подводных лодок. ![]() Источник изображения: Rolls-Royce Объём рынка оценивается в триллионы долларов, при этом в компании рассчитывают на превращение в самый дорогой бизнес Великобритании — у неё есть потенциал обогнать AstraZeneca, HSBC, Shell, Unilever и British American Tobacco. Отмечается, что подразделение Rolls-Royce SMR опережает конкурентов на полтора года в плоскости соблюдения всех европейских нормативных требований. Обладая преимуществами «первопроходца», компания имеет все шансы стать мировым лидером в сфере технологий SMR и создать ключевую экологически чистую технологию Великобритании «на экспорт». Вместе с тем глава Rolls-Royce признаёт, что SMR — непроверенная технология, поскольку ни одного коммерческого реактора такого типа не запущено. Кроме того, хотя такие реакторы должны строиться быстрее традиционных АЭС, высока вероятность, что они всё равно окажутся дорогими, ядерных отходов от них будет не меньше, а обеспечить их безопасность будет сложнее. Более того, энергоёмкие ЦОД, часто строящиеся в засушливых районах, сами по себе потребляют немало воды. SMR же могут дать дополнительную нагрузку на системы водоснабжения, что только усугубит проблему. Тем не менее, техногиганты готовы вкладывать немалые средства в развитие SMR-разработок, пытаясь обеспечить ИИ «чистой» энергией. Google поддерживает проект Kairos Power, являющийся частью федеральной инициативы на $300 млн. Meta✴ подписала контракт на 20 лет с Constellation, предполагающий поставки электроэнергии АЭС Clinton в Иллинойсе, энергокомпания изучает возможность строить SMR на этой площадке. Amazon (AWS) заключила три соглашения, поддерживающие строительство SMR в США. В целом Google, Meta✴ и Amazon также пообещали поддержать глобальные усилия по наращиванию втрое атомных мощностей к 2050 году, призвав ускоренно внедрять новые реакторы в энергетическом секторе.
18.08.2025 [10:10], Руслан Авдеев
Rio AI City: Рио-де-Жанейро станет ИИ-городом при поддержке NVIDIA и OracleВласти Рио-де-Жанейро (Бразилия) анонсировали стратегическое партнёрство с Oracle и NVIDIA. Мэр мегаполиса Эдуардо Паес (Eduardo Paes) объявил о реализации проекта Rio AI City, который призван превратить город в один из главным мировых центров в сфере ИИ, сообщает Datacenter Dynamics. Ведутся переговоры и с другими крупными компаниями. По мнению Паеса, Рио станет ИИ-столицей Бразилии, куда «все захотят». Город закупит оборудование NVIDIA и вычислительные мощности у Oracle. NVIDIA подписала меморандум о взаимопонимании с местной мэрией, предусматривающей покупку ускорителей для ИИ-модели, которую муниципалитет собирается внедрять в рамках проекта Rio AI City. Ещё одно соглашение предусматривает участие в проекте Oracle. Сегодня Oracle управляет в Бразилии двумя облачными регионами — в Сан-Паулу и его окрестностях. Регион Brazil East открыли в 2020 году, а регион Brazil Southeast в соседнем муниципалитете Виньеду — в 2021 году. Rio AI City будет реализован под руководством компании Elea Data Centers, которая строит гигаваттный кампус к западу от Рио, где у неё уже имеется действующий ЦОД RJO1 — он станет первым дата-центром проекта, хотя действует ещё с Олимпийских игр 2016 года. В Elea Data Centers подчеркнули, что многостороннее партнёрство позволяет сделать шаг к реализации проекта Rio AI City — это проект с надёжной инфраструктурой и «чистой» энергией, готовый привлечь таланты и компании, которые станут формировать будущую цифровую эру Бразилии. Завершение строительства 80-МВт RJO2 запланировано на 2026 год. После него будут построены RJO3 и RJO4, которые добавят кампусу ещё 120 МВт. Уже к 2027 году мощность проекта может вырасти до 1,5 ГВт, а к 2032 году — до 3,2 ГВт, благодаря чему Rio AI City превратится в один из крупнейших ЦОД в мире. Впрочем, за это звание ещё придётся побороться.
17.08.2025 [18:08], Руслан Авдеев
Google потратит $9 млрд на развитие облачной и ИИ-инфраструктуры в Оклахоме — часть пойдёт на обучение электриковКомпания Google взяла обязательство вложить $9 млрд в расширение собственной облачной и ИИ-инфраструктуры на территории штата Оклахома (США). Инвестиции направят на развитие кампуса ЦОД в Стиллуотере (Stillwater) и расширение уже имеющегося объекта в Прайоре (Prior), сообщает Datacenter Dynamics. Часть выделенных средств будет потрачена на программы образования и развития персонала. В марте 2025 года стало известно, что Google подала заявку на строительство кампуса ЦОД в Стиллоутере. Тогда было объявлено, что на него потратят $3 млрд, а площадь кампуса составит более 160 га. Подробных данных о кампусе нет, но согласно проекту плана экономического развития от августа 2024 года, предполагается построить до шести зданий, каждое площадью почти 29 тыс. м2. На каждом этапе строительства предполагается строить по одному ЦОД. Объект в Прайоре Google анонсировала ещё в 2007 году, запуск состоялся в 2011-м. С тех пор дата-центр регулярно расширялся. Университет Оклахомы (University of Oklahoma) и Университет штата Оклахома (Oklahoma State University) готовы участвовать в инициативе Google AI for Education Accelerator. В её рамках можно будет получить сертификаты Google Career Certificates, а также доступ к бесплатным курсам обучения ИИ-навыкам. Также Google финансирует в Оклахоме национальную программу обучения, созданную для подготовки квалифицированных электриков — Electrical Training Alliance. ![]() Источник изображения: Gerson Repreza/unsplash.com Ранее Оклахома никогда не считалась крупным рынком ЦОД и сопутствующих технологий. Среди недавно анонсировавших проекты ЦОД в Оклахоме — компании Cerebras, Damac и CoreWeave с Core Scientific. По слухам, кампус площадью около 138 га готовит и Meta✴. Также есть данные, что в мае подана заявка на строительство кампуса площадью более 200 га в Талсе (Tulsa), но что за компания стоит за проектом, не разглашается.
17.08.2025 [14:15], Сергей Карасёв
Inspur разработала СЖО для мегаваттных стоек с 3-кВт ИИ-ускорителямиКитайская компания Inspur Information представила передовую систему двухфазного жидкостного охлаждения для ИИ-платформ следующего поколения, таких как суперускоритель Metabrain SD200. Решение может использоваться для отвода тепла от серверных стоек мегаваттного класса. Inspur отмечает, что из-за стремительного развития ИИ наблюдается тенденция к повышению плотности вычислений. Это приводит к быстрому увеличению энергопотребления стоек с серверным оборудованием. Различные компании, такие как Aligned, JetCool и CyrusOne, разрабатывают решения для стоек мощностью 300 кВт, тогда как крупные ЦОД-операторы и гиперскейлеры готовятся к появлению мегаваттных установок. В таких условиях возможностей стандартных систем охлаждения становится недостаточно. Двухфазная СЖО Inspur способна охлаждать кристаллы мощностью более 3000 Вт, тогда как показатель теплосъёма превышает 250 Вт на квадратный 1 см2. Благодаря изоляции хладагента предотвращается коррозия, что сводит к минимуму риск коротких замыканий, снижает износ и отказы компонентов, говорит компания. Ключевыми преимуществами новой СЖО названы надёжность и долговечность, отсутствие утечек, простота эксплуатации, безопасная работа IT-оборудования, а также уменьшение общей стоимости владения по сравнению с другими аналогичными решениями. При разработке системы специалистам Inspur Information удалось преодолеть узкие места управления температурой и давлением фазового перехода, а также решить проблемы дисбаланса потока и перегрева во время скачков нагрузки: утверждается, что в конфигурации с 200 чипами отклонение распределения потока составляет менее 10 %, а разница температур — менее 2 °C. Применяется специально разработанный хладагент низкого давления, который безопасен для окружающей среды. Несмотря на отсутствие риска утечки, рабочее давление системы составляет менее 1 МПа.
16.08.2025 [15:16], Сергей Карасёв
Inspur представила суперускоритель Metabrain SD200 для ИИ-моделей с триллионами параметровКитайская компания Inspur создала суперускоритель Metabrain SD200 для наиболее ресурсоёмких задач ИИ. Система, как утверждается, может работать с моделями, насчитывающими более 1 трлн параметров. Платформа Metabrain SD200 объединяет 64 карты в единый суперузел с унифицированной памятью. В основу положены открытая архитектура 3D Mesh и проприетарные коммутаторы Open Fabric Switch. Иными словами, ускорители на базе GPU, распределённые по разным серверам, объединяются посредством высокоскоростного интерконнекта в единый домен. Суперускоритель предоставляет доступ к 4 Тбайт VRAM и 64 Тбайт основной RAM. Благодаря этому возможен одновременный запуск четырёх китайских ИИ-моделей с открытым исходным кодом, включая DeepSeek R1 и Kimi K2. Кроме того, поддерживается совместная работа нескольких ИИ-агентов в режиме реального времени. Для Metabrain SD200 заявлена низкая задержка при передаче данных, которая исчисляется «сотнями наносекунд». В распространённых сценариях инференса, предполагающих обработку небольших пакетов данных, по величине задержки система превосходит распространённые отраслевые решения. В составе новой платформы задействованы средства оптимизации. В частности, инструмент Smart Fabric Manager автоматически формирует оптимальные маршруты данных на основе характеристик нагрузки. Metabrain SD200 совместим с распространёнными фреймворками, такими как PyTorch, vllm и SGLang: благодаря этому возможен быстрый перенос существующих моделей и ИИ-агентов без необходимости переписывать программный код с нуля. Таким образом, значительно снижается стоимость миграции. В целом, реализованная технология удалённого vGPU позволяет ускорителям, распределённым по разным серверам, взаимодействовать столь же эффективно, как если бы они находились на одном хосте. При этом достигается восьмикратное расширение адресного пространства, что обеспечивает полную загрузку ресурсов и эффективную работу даже при использовании ИИ-моделей с триллионами параметров.
15.08.2025 [18:15], Руслан Авдеев
Саудовская center3 потратит $10 млрд на ЦОД общей мощностью 1 ГВтКомпания center3 из Саудовской Аравии, принадлежащая STC (Saudi Telecom) и занимающаяся строительством дата-центров, к 2030 году намерена довести мощность своих ЦОД до 1 ГВт — в дополнение к уже потраченным на дата-центры $3 млрд будут инвестированы ещё $10 млрд, сообщает Datacenter Dynamics. Center3, основанная в 2022 году, является дочерней структурой STC. Компания строит и эксплуатирует в Саудовской Аравии за её пределами, в том числе в Бахрейне, около 20 дата-центров. Согласно её планам, общая установленная мощность к 2027 году должна достичь 300 МВт. Подробности о том, как именно компания намерена инвестировать $10 млрд и где именно разместятся новые дата-центры, пока не разглашаются. ![]() Источник изображения: SALEH/unsplash.com По словам генерального директора center3 Фахада Аль-Хаджери (Fahad AlHajeri), речь идёт не просто о расширении портфолио дата-центров, но и о создании условий для развития цифровой экономики будущего. Как заявил глава компании, выбор мощности в 1 ГВт закладывает основу для ИИ-проектов, облачных вычислений и выполнения рабочих нагрузок гиперскейл-уровня. Это гарантирует Саудовской Аравии и всему региону создание инфраструктуры мирового класса, которая позволит пробиться в мировые лидеры в ходе следующей волны глобальных инноваций. В 2024 году компания расширила кампус ЦОД Khurais Riyadh в Эр-Рияде, увеличив его мощность на 9,6 МВт. В августе 2024 года Oracle объявила о размещении своего облачного региона в дата-центре center3. В ЦОД center3 размещается и облачный регион Huawei. В октябре center3 объявила о партнёрстве с саудовским строителем дата-центров DataVolt.
15.08.2025 [17:41], Сергей Карасёв
ИИ-стартап Rivos, успевший посудиться с Apple, ищет $500 млн, чтобы побороться с NVIDIAАмериканский стартап Rivos, по сообщению ресурса The Information, намерен получить финансирование в объеме до $500 млн, что увеличит его рыночную стоимость до $2 млрд. Средства в случае их привлечения помогут ускорить вывод на рынок ИИ-ускорителей нового типа, которые, как ожидается, смогут составить конкуренцию изделиям NVIDIA. Фирма Rivos, базирующаяся в Санта-Кларе (Калифорния, США), основана в 2021 году. Она занимается проектированием чипов на открытой архитектуре RISC-V: отсюда и название стартапа — RISC-V Open Source. Создаваемые изделия предназначены для приложений ИИ и больших языковых моделей (LLM). Штат Rivos насчитывает приблизительно 450 сотрудников. Компания уже завершила разработку первого RISC-V-ускорителя: чип передан в опытное производство на предприятие TSMC. Осведомлённые источники утверждают, что массовый выпуск новинки может быть организован в 2026-м. Rivos якобы планирует сотрудничать с некой «крупной публичной компанией по созданию микрочипов» для разработки будущих ускорителей. Кроме того, стартап близок к заключению сделки по поставкам своей продукции неназванному партнёру. На сегодняшний день компания привлекла около $370 млн финансирования. В частности, $250 млн было получено в апреле 2024 года в ходе инвестиционного раунда Series-A3, в котором приняли участие Matrix Capital Management, Intel Capital, Dell Technologies Capital, MediaTek и др. В 2022-м Rivos столкнулся с судебным иском со стороны Apple. Компания из Купертино обвинила стартап в том, что он нанял на работу ряд бывших инженеров Apple, а затем использовал полученную от них конфиденциальную информацию для разработки собственных изделий. Rivos отвергла обвинения и подала встречный иск. Однако, как сообщалось, в ходе разбирательства компания уволила около 6 % своих сотрудников и отложила раунд финансирования Series A. Стороны окончательно урегулировали претензии в феврале 2024 года.
15.08.2025 [15:15], Руслан Авдеев
Расходы гиперскейлеров на дата-центры превысили ВВП целых странУровень современных инвестиций в новую инфраструктуру операторами дата-центров оказался сопоставим с ВВП некоторых государств, причём не самых маленьких. Так, в Omdia подсчитали, что капиталовложения Amazon в ЦОД за год сейчас превышают $100 млрд — это сопоставимо с ВВП Коста-Рики и значительно больше ВВП Люксембурга или Литвы, сообщает The Register. Схожим образом ситуация обстоит и с другими игроками облачного рынка. Так, капитальные вложения Google составляют $82 млрд — выше объёма экономики Словении, а в случае с Microsoft речь идёт об $75 млрд, это выше ВВП Уганды. На долю Meta✴ приходится $69 млрд — больше, чем ВВП Бахрейна. По оценкам экспертов, капитальные затраты на ЦОД превысят в 2025 году $657 млрд. Это означает, что расходы выросли почти вдвое с 2023 года, когда речь шла об $330 млрд. Во многом такие расходы объясняются стремлением гиперскейлеров наращивать мощности для развития ИИ в надежде на то, что когда-то это окупится. Например, xAI, даже не будучи гиперскейлером, тратит по $1 млрд в месяц, рассчитывая на будущую отдачу. Согласно отчёту McKinsey & Company, многие топ-менеджеры скептически относятся к предположениям, что огромные сумму, расходуемые на ИИ, обеспечат соизмеримую отдачу в ближайшем будущем. Например, в отчёте за II квартал 2025 года Meta✴ отметила, что прибыль приносят традиционные модели машинного обучения — основа её рекомендательных систем, а не проекты, связанные с генеративным ИИ. Впрочем, облачные операторы с готовностью предлагают свои сервисы клиентам, желающим получить больше ИИ-инфраструктуры. ![]() Источник изображения: Samuel Regan-Asante/unsplash.com В последнем обзоре рынков облаков и ЦОД Omdia отмечает, что в ближайшей перспективе вычислительные ИИ-ресурсы будут в дефиците. Разработка более масштабных и «прожорливых» моделей вроде недавно представленной GPT-5, стимулирует спрос на вычислительные мощности. В то же время широкое внедрение ИИ стимулирует спрос на инференс. По данным Omdia, значительная часть населения развитых стран так или иначе использует ИИ. Только ChatGPT пользуется более 700 млн человек, а ежедневно — более 120 млн. Анализируя инвестиции в ЦОД, Omdia отмечает, что несмотря на то, что IT-оборудование останется самой крупной статьёй расходов на ЦОД в ближайшие годы, затраты на физическую инфраструктуру (электроснабжение, распределение энергии и системы охлаждения) будут расти быстрее. Это связано с растущим спросом на мощные серверы. Плотность вычислений в стойках сегодня растёт экспоненциально, это требует «значительных и постоянных инноваций» в сфере систем охлаждения и электроснабжения. В то же время растущие потребности всей этой IT-инфраструктуры в энергии, вероятно, вынудит операторов инвестировать в локальные генерирующие мощности и «микросети как услугу», что отчасти происходит уже сегодня, и даже в крупных масштабах. В Omdia ожидают, что темпы строительства дата-центров увеличатся, а мощность крупнейших площадок вырастет, появятся и объекты от гигаватта в США, Индии и других странах. Крупные проекты уже находятся в стадии реализации. Meta✴ сообщила о нескольких кампусах на несколько гигаватт, которые она намерена запускать с 2026 года. В недавнем отчёте Deloitte Insights утверждается, что мощность некоторых площадок, находящиеся на ранних стадиях планирования, может превысить 5 ГВт.
14.08.2025 [17:29], Руслан Авдеев
Умнее, но прожорливее: GPT-5 потребляет до 20 раз больше энергии, чем предыдущие моделиНедавно представленной модели OpenAI GPT-5 в сравнении с ChatGPT образца середины 2023 года для обработки идентичного запроса потребуется до 20 раз больше энергии, сообщает The Guardian. Официальную информацию об энергопотреблении OpenAI, как и большинство её конкурентов, не публикует. В июне 2025 года глава компании Сэм Альтман (Sam Altman) сообщил, что речь идёт о 0,34 Вт∙ч и 0,00032176 л на запрос, но о какой именно модели идёт речь, не сообщалось. Документальные подтверждения этих данных тоже отсутствуют. По словам представителя Университета штата Иллинойс (University of Illinois), GPT-5 будет потреблять намного больше энергии в сравнении с моделями-предшественницами как при обучении, так и при инференсе. Более того, в день премьеры GPT-5 исследователи из Университета Род-Айленда (University of Rhode Island) выяснили, что модель может потреблять до 40 Вт∙ч для генерации ответа средней длины из приблизительно 1 тыс. токенов. Для сравнения, в 2023 году на обработку одного запроса уходило порядка 2 Вт∙ч. Сейчас среднее потребление GPT-5 составляет чуть более 18 Вт∙ч на запрос, что выше, чем у любых других сравнивавшихся учёными моделей, за исключением апрельской версии «рассуждающей» o3 и DeepSeek R1. Предыдущая модель GPT-4o потребляет значительно меньше. 18 Вт∙ч эквивалентны 18 минутам работы лампочки накаливания. С учётом того, что ChatGPT обрабатывает около 2,5 млрд запросов ежедневно, за сутки тратится энергии, достаточной для снабжения 1,5 млн домохозяйств в США. В целом учёные не удивлены, поскольку GPT-5 в разы производительнее своих предшественниц. Летом 2025 года ИИ-стартап Mistral опубликовал данные, в которых выявлена «сильная корреляция» между масштабом модели и её энергопотреблением. По её данным, GPT-5 использует на порядок больше ресурсов, чем GPT-3. При этом многие предполагают, что даже GPT-4 в 10 раз больше GPT-3. Впрочем, есть и дополнительные факторы, влияющие на потребление ресурсов. Так, GPT-5 использует более эффективное оборудование и новую, более экономичную экспертную архитектуру с оптимизацией расхода ресурсов на ответы, что в совокупности должно снизить энергопотребление. С другой стороны, в случае с GPT-5 речь идёт о «рассуждающей» модели, способной работать с видео и изображениями, поэтому реальное потребление ресурсов, вероятно, будет очень высоким. Особенно в случае длительных рассуждений. Чтобы посчитать энергопотребление, группа из Университета Род-Айленда умножила среднее время, необходимое модели для ответа на запрос на среднюю мощность, потребляемую моделью в ходе работы. Важно отметить, что это только примерные оценки, поскольку достоверную информацию об использовании моделями конкретных чипов и распределении запросов найти очень трудно. Озвученная Альтманом цифра в 0,34 Вт∙ч практически совпадает с данными, рассчитанными для GPT-4o. Учёные подчёркивают необходимость большей прозрачности со стороны ИИ-бизнесов по мере выпуска всё более производительных моделей. В университете считают, что OpenAI и её конкуренты должны публично раскрыть информацию о воздействии GPT-5 на окружающую среду. Ещё в 2023 году сообщалось, что на обучение модели уровня GPT-3 требуется около 700 тыс. л воды, а на диалог из 20-50 вопросов в ChatGPT уходило около 500 мл. В 2024 году сообщалось, что на генерацию ста слов у GPT-4 уходит до трёх бутылок воды. |
|