Материалы по тегу: ии

29.04.2025 [22:41], Владимир Мироненко

Inventec вложит до $85 млн в производство серверов в Техасе

Тайваньский производитель электроники Inventec объявил об утверждении советом директоров инвестиций на сумму до $85 млн в создание производственного предприятия в Техасе, что ознаменовало собой последний шаг крупного ODM-производителя по расширению операций в США, сообщил ресурс DigiTimes. Аналогичные решения по увеличению инвестирования производства в США приняли другие тайваньские технологические гиганты, включая Foxconn, Wistron и Wiwynn.

Inventec заявила, что реализацией инвестиционного проекта займётся её дочерняя компания в США. Финансирование проекта будет осуществляться за счёт собственного оборотного капитала и банковских кредитов. Как сообщает компания, этот шаг направлен на укрепление отношений с клиентами и снижение рисков, связанных с торговой и тарифной политикой США. На первом этапе компания определится с участком, где будут располагаться производственные мощности.

Inventec ранее заявила, что Техас является наиболее подходящим местом для строительства завода по сборке серверов в США, объяснив свой выбор близостью к собственному заводу в Мексике, а также стабильным и достаточным электроснабжением и общей пригодностью для сборки ИИ-серверов, требующей высокой мощности для тестирования. Как сообщают источники, Inventec с начала этого года изучает потенциальные площадки для размещения в Техасе.

 Источник изображения: Kevin Ache/unsplash.com

Источник изображения: Kevin Ache/unsplash.com

На данный момент из крупных тайваньских ODM-производителей серверов лишь Compal пока не объявил о планах по запуску производства серверного оборудования в США. У Quanta есть заводы в Калифорнии и Теннесси, у Foxconn — в Висконсине и Техасе, у Wistron и WiWynn — в Калифорнии и Техасе, у MiTAC и Pegatron — в Калифорнии. Ранее Inventec продала AMD свою долю в американском производителе серверов ZT Systems.

Источники в отрасли полагают, что Compal рассматривает возможность участия в торгах по покупке производственных активов ZT Systems в США, что может обеспечить ей доступ к производственным мощностям и квалифицированным кадрам ZT, а также потенциально позволит углубить связи с AMD. Compal в настоящее время управляет заводом по производству автомобильного оборудования в Индиане.

Постоянный URL: http://servernews.kz/1122062
29.04.2025 [14:44], Сергей Карасёв

Oracle развернула в облаке суперускорители NVIDIA GB200 NVL72

Корпорация Oracle ввела в эксплуатацию в своих дата-центрах первые суперускорители NVIDIA GB200 NVL72. Тысячи GPU семейства Blackwell доступны клиентам через облако NVIDIA DGX Cloud и инфраструктуру Oracle Cloud Infrastructure (OCI) для создания и запуска ИИ-агентов и «рассуждающих» моделей следующего поколения.

Решение GB200 NVL72 объединяет 18 узлов 1U в одной стойке: каждый из них содержит два ускорителя GB200, что в сумме даёт 72 чипа B200 и 36 процессоров Grace. Задействована система жидкостного охлаждения. Платформа Oracle включает высокоскоростные сетевые решения NVIDIA Quantum-2 InfiniBand и Spectrum-X Ethernet.

Отмечается, что Oracle планирует сформировать один из самых крупных в мире кластеров с ИИ-ускорителями поколения Blackwell. Системы OCI Supercluster смогут масштабироваться до более чем 100 тыс. GPU для удовлетворения стремительно растущих потребностей в вычислительных ресурсах для задач инференса и НРС. При этом Oracle предлагает гибкие варианты развёртывания, позволяющие клиентам использовать Blackwell через публичные, государственные и суверенные облака, а также собственные дата-центры.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

О намерении задействовать мощности OCI GB200 уже заявили ряд крупных клиентов. В их число входят технологические компании, корпоративные заказчики, государственные учреждения, а также региональные поставщики облачных услуг.

Ранее о запуске общедоступных инстансов на основе NVIDIA GB200 NVL72 объявила компания CoreWeave, предоставляющая облачные сервисы для ИИ-задач. Кластеры Supermicro на базе NVIDIA GB200 NVL72 предложит клиентам Eviden (подразделение Atos Group). Эти суперускорители также взяла на вооружение облачная платформа Google Cloud. xAI также приступил к монтажу NVIDIA GB200 NVL72 для ИИ-кластера Colossus.

Постоянный URL: http://servernews.kz/1122018
29.04.2025 [09:05], Руслан Авдеев

«Подмаслить» ИИ: ЦОД AI Green Bytes задействует погружные СЖО и жидкость Oleon Qloe растительного происхождения

ИИ-облако AI Green Bytes строит в Париже дата-центр с иммерсионной системой охлаждения, основным отличием которой от обычных решений будет применение охлаждающей жидкости Oleon Qloe растительного происхождения, сообщает Datacenter Dynamics. В AI Green Bytes подчёркивают, что жидкость Qloe — передовая разработка для экоустойчивых ИИ-вычислений. Новый объект обеспечит «непревзойдённую эффективность» с минимальным воздействием на окружающую среду.

ЦОД должен открыться в июне 2025 года, это будет первый объект AI Green Bytes с иммерсионной системой охлаждения. Каждая ёмкость способна охлаждать IT-оборудование мощностью 361 кВт. Общая мощность объекта не разглашается. Ранее компания представила концепцию модульного ЦОД AI Green Qube площадью 400 м2, способного вместить 3,5 тыс. ИИ-ускорителей. Правда, компания не уточняет, основан ли парижский объект на том же самом дизайне.

ИИ-стартапа AI Green Bytes был основан в Норвегии 2024 году. Oleon же является подразделением французской компании Avril, специализирующимся на разработке «зелёных» химикатов. Жидкость Qloe, по словам компании, полностью биоразлагаема и нетоксична, но при этом обеспечивает высококачественное охлаждение.

 Источник изображения: Submer

Источник изображения: Submer

В 2022 году американская продовольственная компания Cargill представила собственную жидкость растительного происхождения для иммерсионных СЖО — NatureCool 2000. Эта жидкость, на 90 % состоящая из масел растительного происхождения, тоже является безопасной и биоразлагаемой. Синтетическая жидкость Synmerse DC от Perstorp (дочернее предприятие Petronas) также заявлена как биоразлагаемая. О её составе разработчик ничего говорит, сообщая лишь, что она не содержит PFAS-химикатов.

Постоянный URL: http://servernews.kz/1121977
28.04.2025 [22:55], Владимир Мироненко

IBM пообещала инвестировать $150 млрд в США в течение пяти лет, но где она возьмёт столько денег — не сказала

IBM объявила о планах инвестировать в расширение присутствия в США в течение пяти лет $150 млрд, в том числе более $30 млрд на исследования, а также разработку мейнфреймов и квантовых компьютеров. Компания заявила, что ее цель — подпитывать экономику страны и «ускорять свою роль мирового лидера в области вычислений», пишет агентство Bloomberg. Вместе с тем компания в последние годы неуклонно переносила разработку за рубеж.

В настоящее время у IBM есть производственная площадка по выпуску мейнфреймов в Покипси (Poughkeepsie) в штате Нью-Йорк. Она также управляет парком квантовых компьютеров и активно расширяет присутствие на рынке ПО. Компания заявила, что планы по инвестициям подтверждают её приверженность инновациям и экономическим возможностям США.

После победы на президентских выборах в США Дональда Трампа (Donald Trump) и увеличения им ввозных пошлин на электронику и компоненты американские технологические гиганты, включая Apple и NVIDIA начали наращивать инвестиции в производство в стране. К ним присоединились зарубежные производители, такие как TSMC. Где IBM возьмёт $150 млрд, не уточняется. В последнем квартале её выручка составила $14,54 млрд, а чистая прибыль — $1,06 млрд.

«Мы были сосредоточены на американских рабочих местах и производстве с момента нашего основания 114 лет назад, и с этим инвестиционным и производственным обязательством мы гарантируем, что IBM останется центром самых передовых в мире вычислительных и ИИ-возможностей», — указал в заявлении генеральный директор IBM Арвинд Кришна.

IBM также заявила, что она несёт ответственность за инновации, «включая системы обработки данных, которые обеспечили работу системы социального обеспечения США, программу Apollo, которая отправила человека на Луну, и решения, которые двигают бизнес во всех отраслях». Она также охарактеризовала себя как «одного из крупнейших в стране работодателей в сфере технологий».

Как отметил ресурс The Register, заявления IBM контрастируют с реальным положением дел, поскольку в течение многих лет компания активно перемещала рабочие места в страны с более низкой стоимостью труда, и сейчас не менее трети её глобального штата приходится на Индию и Бангладеш. Уже по состоянию на 2017 года там работало около 122 тыс., что стало известно благодаря внутренней утечке служебной записки от Ти-Джей Шембекара (TJ Shembekar), директора IBM по управлению глобальным персоналом.

Как пишет The Register, после этого IBM неоднократно сокращала сотрудников в США. В марте она провела очередную серию увольнений в США, открыв вакансии на аналогичные должности в Индии. Благодаря такой политике средняя зарплата в IBM гораздо ниже, чем в других крупных компаниях. По данным The Register, средняя заработная плата сотрудника IBM за 2024 год составила $48 582, тогда как в Dell она была равна $73 283, а в HPE — $66 886. Сам генеральный директор IBM Арвинд Кришна (Arvind Krishna) получил полный пакет компенсаций свыше $25 млн.

Постоянный URL: http://servernews.kz/1122006
28.04.2025 [14:48], Сергей Карасёв

ИИ-суперкомпьютер в чемодане — GigaIO Gryf обеспечит производительность до 30 Тфлопс

Компания GigaIO объявила о доступности системы Gryf — так называемого ИИ-суперкомпьютера в чемодане, разработанного в сотрудничестве с SourceCode. Это сравнительно компактное устройство, как утверждается, обеспечивает производительность ЦОД-класса для периферийных развёртываний.

Первая информация о Gryf появилась около года назад. Устройство выполнено в корпусе с габаритами 228,6 × 355,6 × 622,3 мм, а масса составляет примерно 25 кг. Система может эксплуатироваться при температурах от +10 до +32 °C.

Конструкция предусматривает использование модулей Sled четырёх типов: это вычислительный узел Compute Sled, блок ускорителя Accelerator Sled, узел хранения Storage Sled и сетевой блок Network Sled. Доступны различные конфигурации, но суммарное количество модулей Sled в составе Gryf не превышает шести. Плюс к этому в любой комплектации устанавливается модуль питания с двумя блоками мощностью 2500 Вт.

Узел Compute Sled содержит процессор AMD EPYC 7003 Milan с 16, 32 или 64 ядрами, до 512 Гбайт DDR4, системный SSD формата M.2 (NVMe) вместимостью 512 Гбайт и два порта 100GbE QSFP56. Блок Storage Sled объединяет восемь накопителей NVMe SSD E1.L суммарной вместимостью до 492 Тбайт. Модуль Network Sled предоставляет два порта QSFP28 100GbE и шесть портов SFP28 25GbE.

За ИИ-производительность отвечает модуль Accelerator Sled, который может нести на борту ускоритель NVIDIA L40S (48 Гбайт), H100 NVL (94 Гбайт) или H200 NVL (141 Гбайт). В максимальной конфигурации быстродействие в режиме FP64 достигает 30 Тфлопс (3,34 Пфлопс FP8), а пропускная способность памяти — 4,8 Тбайт/с.

 Источник изображения: GigaIO

Источник изображения: GigaIO

Архитектура новинки обеспечивает возможность масштабирования путём объединения в единый комплекс до пяти экземпляров Gryf: в общей сложности можно совместить до 30 модулей Sled в той или иной конфигурации. Заказы на Gryf уже поступили со стороны Министерства обороны США, американских разведывательных структур и пр.

Постоянный URL: http://servernews.kz/1121963
28.04.2025 [12:32], Сергей Карасёв

Huawei готовится к тестированию своего самого мощного ИИ-ускорителя — Ascend 910D

Компания Huawei, по сообщению газеты The Wall Street Journal, готовится к выводу на рынок своего самого производительно ИИ-ускорителя — изделия Ascend 910D. Ожидается, что новинка сможет составить конкуренцию решениям NVIDIA, которые китайские заказчики не могут приобретать в связи с американскими санкциями.

Первые образцы Ascend 910D, как предполагается, будут изготовлены к концу мая. Huawei уже ведёт переговоры с рядом китайских технологических компаний по вопросу тестирования ускорителя. Испытания необходимы для оценки производительности новинки и подготовки к массовому производству.

Huawei рассчитывает, что в плане быстродействия Ascend 910D сможет превзойти NVIDIA H100. В семейство Ascend 910 также входят модели 910B и 910C. Причём версия Ascend 910С позиционируется в качестве китайской альтернативы NVIDIA H100. Однако независимые тесты, проведённые сторонними специалистами, показали, что по производительности это изделие Huawei уступает продукту конкурента.

 Источник изображения: Huawei

Источник изображения: Huawei

Тем не менее, некоторые заказчики уже ведут переговоры с Huawei об увеличении объёмов закупок Ascend 910C. Связано это с новыми санкциями со стороны США, которые запрещают поставлять в КНР даже специально ослабленные ускорители NVIDIA H20. Сама Huawei в текущем году намерена отгрузить более 800 тыс. изделий Ascend 910B и 910C клиентам в различных отраслях, включая государственных операторов связи и частных ИИ-разработчиков, таких как ByteDance (родительская компания TikTok).

Ранее также сообщалось, что Huawei готовит ИИ-ускорители следующего поколения — 6-нм решения Ascend 920 и Ascend 920C. По имеющейся информации, Ascend 920C сможет демонстрировать BF16-производительность на уровне 900 Тфлопс против 780 Тфлопс у Ascend 910C. Новинка получит память HBM3 с пропускной способностью до 4 Тбайт/с, поддержку интерфейса PCIe 5.0 и интерконнекта с высокой пропускной способностью. Начало массового производства ожидается во II половине 2025 года.

Постоянный URL: http://servernews.kz/1121959
28.04.2025 [07:54], Сергей Карасёв

SambaNova уволила 15 % персонала и переключилась на инференс в облаке

Разработчик ИИ-ускорителей SambaNova, по сообщению EE Times, проводит реорганизацию, направленную на трансформацию бизнеса. Стартап, в частности, намерен сосредоточиться на предоставлении облачных услуг в сфере ИИ, включая, ресурсы для инференса.

SambaNova была основана в 2017 году. Актуальный ИИ-ускоритель компании SN40L RDU (Reconfigurable Dataflow Unit) объединяет два крупных чиплета, которые оперируют 520 Мбайт SRAM-кеша, 1,5 Тбайт DDR5 DRAM и 64 Гбайт HBM3. Восьмипроцессорная система на базе SN40L, по заявлениям SambaNova, способна запускать и обслуживать ИИ-модели с 5 трлн параметров и глубиной запроса более 256k.

Осенью прошлого года SambaNova объявила о запуске самой быстрой на тот момент облачной платформы для ИИ-инференса. В этом вопросе она соревнуется с Cerebras и Groq, ещё двумя заметными стартапами, которые пытаются составить конкуренцию NVIDIA. Стоит отметить, что Groq также сменила бизнес-подход, отказавшись от продажи отдельных ускорителей в пользу оснащения целых ИИ ЦОД для инференса.

 Источник изображения: SambaNova

Источник изображения: SambaNova

В рамках реорганизации SambaNova сократила численность персонала примерно на 15 %: уволены 77 из 500 сотрудников. Отмечается, что масштабные коммерческие ИИ-нагрузки смещаются от обучения в сторону инференса. В результате стартапы в сфере ускорителей и другого ИИ-оборудования для дата-центров переключились на предоставление обалчного доступа к LLM посредством API.

«Мы оперативно переориентировались на предоставление облачных решений, которые помогают предприятиям и разработчикам развёртывать открытые ИИ-модели в масштабе. В рамках трансформации операций пришлось принять трудное решение о сокращении примерно 75 сотрудников и сместить фокус команды для поддержания следующего этапа роста», — заявили представители SambaNova.

Постоянный URL: http://servernews.kz/1121937
27.04.2025 [21:33], Сергей Карасёв

Nokia тоже пострадает от новых пошлин США, но верит, что сможет заработать на рынке ИИ ЦОД

Компания Nokia отрапортовала о работе в I квартале 2025 года: финский производитель телекоммуникационного оборудования столкнулся с ухудшением финансовых показателей. Выручка за трёхмесячный период составила €4,39 млрд, что на 1 % меньше по сравнению с результатом за I четверть 2024-го, когда было получено €4,44 млрд. В постоянной валюте зафиксировано снижение на 3 %.

Nokia понесла операционные убытки в размере €48 млн. Для сравнения: годом ранее компания показала €405 млн операционной прибыли. При этом чистые убытки оказались на уровне €60 млн против €438 млн чистой прибыли по итогам I квартала 2024 года.

В подразделении сетевой инфраструктуры (Network Infrastructure) квартальная выручка составила €1,72 млрд. Это на 20 % (плюс 11 % в постоянной валюте) больше по сравнению с предыдущим годом, когда результат равнялся €1,44 млрд. В сегменте фиксированных сетей отмечено увеличение выручки на 9 % в годовом исчислении, в области IP-сетей — на 7 %, оптических сетей — на 15 %.

 Источник изображений: Nokia

Источник изображений: Nokia

В группе мобильных сетей (Mobile Networks) выручка увеличилась год к году на 3 % — с €1,68 млрд в I квартале 2024 года до €1,73 млрд в I четверти 2025-го. Облачные и сетевые сервисы (Cloud and Network Services) принесли €567 млн, что на 4 % больше в годовом исчислении (€546 млн в 2024-м). Подразделение Nokia Technologies, которое разрабатывает потребительские продукты и лицензирует технологии, сократило продажи на 51 % — с €757 млн до €369 млн.

Самым важным событием I квартала Nokia называет завершение приобретения Infinera: это позволит масштабировать бизнес в сфере оптических сетей и ускорить рост в сегменте ЦОД. В частности, Nokia укрепляет отношения с гиперскейлерами. Началась интеграция Infinera в операционные процессы финской компании. В области мобильной связи Nokia продлила соглашение с американским оператором T-Mobile US, касающееся сетей 5G. Облачные и сетевые сервисы показывают положительную динамику в том числе благодаря сотрудничеству с AT&T, Boost Mobile, Ooredoo Qatar и Telefónica.

С географической точки зрения наибольшую долю выручки Nokia обеспечил регион EMEA (Европа, Ближний Восток и Африка): на него пришлось €1,84 млрд, что на 20 % меньше прошлогоднего результата, когда было получено €2,29 млрд. На американском рынке продажи увеличились в годовом исчислении на 23 % — с €1,20 млрд до €1,48 млрд. В Азиатско-Тихоокеанском регионе отмечено повышение на 12 % — с €947 млн до €1,06 млрд.

Nokia говорит о возможных краткосрочных сложностях, связанных с новыми пошлинами США. В частности, во II квартале 2025 года это может привести к сокращению операционной прибыли компании на €20–30 млн. В то же время Nokia указывает на то, что бизнес компании может ощутить на себе влияние быстро меняющегося мирового торгового ландшафта. В прошлом году компания объявила о выходе из совместного с Huawei предприятия TD Tech из-за напряжённости между США и Китаем. Также Nokia организовала небольшое производство в США и развивает бизнес в Индии.

В целом, Nokia стремится извлечь выгоду из стремительного развития ИИ, сопровождающегося расширением инфраструктуры дата-центров. Например, в прошлом году она заключила соглашение об оснащении ЦОД Microsoft Azure маршрутизаторами и коммутаторами. Сообща с Kyndryl компания Nokia намерена предоставлять передовые сетевые решения и услуги для ЦОД на глобальном рынке. В 2025 году Nokia ожидает значительного роста чистых продаж в области сетевой инфраструктуры, облачных и сетевых услуг, тогда как в секторе мобильных сетей продажи прогнозируются на «стабильном уровне».

Постоянный URL: http://servernews.kz/1121904
26.04.2025 [13:12], Владимир Мироненко

Alphabet в полтора раза нарастил квартальную прибыль и подтвердил планы потратить $75 млрд на ИИ-инфраструктуру

Google утверждает, что огромные капиталовложения в ЦОД в последние годы оказывают большее давление на её баланс из-за растущих амортизационных расходов. Несмотря на это, компания по-прежнему планирует направить в 2025 году $75 млрд на развитие ИИ-инфраструктуры, включая развёртывание и модернизацию ЦОД, пишет The Register.

Подводя итоги I квартала 2025 года, финансовый директор холдинга Alphabet Анат Ашкенази (Anat Ashkenazi) сообщила, что компания за три месяца израсходовала «технической инфраструктуры» $17,2 млрд. Она отметила, что крупнейшими были «инвестиции в серверы, за которыми следуют ЦОД» для поддержки подразделений поиска, облака и DeepMind, занимающегося ИИ-технологиями.

Google владеет и управляет 135 ЦОД по всему миру и прибегает к помощи поставщиков услуг колокации. Тем не менее, признала финансовый директор, компании по-прежнему не хватает мощностей, чтобы полностью удовлетворить спрос клиентов. «Мы находимся в условиях ограниченного предложения по отношению к спросу, и, учитывая, что доходы зависят от сроков развёртывания новых мощностей, мы можем наблюдать колебания темпов роста доходов от облачных технологий в зависимости от развёртывания мощностей каждый квартал», — отметила Ашкенази.

Ашкенази напомнила аналитикам, что Google Cloud завершила 2024 год с превышением спроса со стороны клиентов над имеющимися у компании мощностями. И ситуация повторилась в отчётном квартале. «Мы ожидаем относительно более высокого развёртывания мощностей к концу 2025 года», — сообщила она, добавив, что капитальные затраты Google в 2024 году составили от $50 до $55 млрд, и в текущем календарном году компания намерена израсходовать по этой статье на 36–50 % больше.

 Источник изображения: Google

Источник изображения: Google

Ожидая всплеск заказов на облако и ИИ от корпоративных клиентов, Microsoft планирует направить $80 млрд на инфраструктуру в 2025 году, AWS — до $100 млрд, а Meta$60–65 млрд. Вместе с тем AWS и Microsoft пересмотрели часть планов по развитию ЦОД. ИИ — это всего лишь фактор в расширении цифровой империи Google, как и для Microsoft и AWS, но руководство компаний надеется, что эти затраты окупятся, отметил The Register. Недостатком строительства ЦОД является амортизация. Ашкенази сообщила, что рост амортизации составил за квартал примерно 31 % в годовом исчислении, и этот показатель вырастет в течение года.

Alphabet получил в I квартале выручку в размере $90,234 млрд, что на 12 % больше, чем годом ранее, и выше консенсус-прогноза аналитиков, опрошенных LSEG, в размере $89,12 млрд. Реклама принесла холдингу $66,88 млрд, что на 8,5 % больше, чем годом ранее, когда доход от рекламы составил $61,66 млрд. Чистая прибыль Alphabet выросла на 46 % до $34,54 млрд или $2,81 на акцию при прогнозе от LSEG в размере $2,01 на акцию.

Выручка облачного подразделения Google Cloud увеличилась на 24 % до $12,26 млрд, что чуть меньше прогноза аналитиков, опрошенных StreetAccount, в размере $12,27 млрд. Операционная прибыль Google Cloud выросла до $2,17 млрд с $900 млн годом ранее.

Постоянный URL: http://servernews.kz/1121898
24.04.2025 [16:38], Руслан Авдеев

Meta✴ предложила Amazon и Microsoft «скинуться» на обучение ИИ-моделей Llama

Meta уже вложила миллионы долларов в создание и развитие открытых ИИ-моделей семейства Llama, но обучение крупных LLM требует всё больше средств. Поэтому, как сообщает The Information, Meta попросила помощи у своих «коллег», Microsoft и Amazon, что довольно странно, поскольку Meta сама располагает огромными вычислительными ресурсами.

Четыре источника сообщили, что Meta предложила этим компаниям некие «стимулы» вроде возможности влиять на развитие будущих ИИ-моделей Llama. В чём выгода Microsoft и Amazon в этом случае, не совсем понятно, поскольку они сами работают над ИИ-проектами, причём в основном коммерческими, тогда как Meta зарабатывает преимущественно на рекламе. Кроме того, Llama относится к open source проектам, так что спонсировать создание сильного конкурента на рынке не слишком выгодно.

По данным минимум двух источников, помимо «наиболее серьёзных» дискуссий с Amazon и Microsoft, переговоры также велись с Databricks, IBM, Oracle и представителями как минимум одного ближневосточного инвестора. Meta также обсуждала с компаниями создание группы Llama Consortium в начале 2025 года. В ходе дискуссий, по слухам, она в первую очередь просила денег, а также серверы или другие ресурсы, которые компенсировали бы стоимость обучения моделей.

 Источник изображения: Juan Camilo Guarin P/unsplash.com

Источник изображения: Juan Camilo Guarin P/unsplash.com

Дополнительно обсуждались иные формы поддержки потенциальных партнёров. Например, высокопоставленные представители Meta могли бы поучаствовать в конференциях партнёров или более подробно рассказать о процессе обучения моделей. Окончательные результаты переговоров не опубликованы, но в обозримом будущем, вероятно, можно будет отследить, в каких мероприятиях конкурентов будут активно участвовать представители Meta.

В ноябре 2024 года сообщалось, что для обучения новейшей на тот момент модели Llama-4 использовалось более 100 тыс. ускорителей NVIDIA H100. А в марте NVIDIA анонсировала ИИ-модели Llama Nemotron с регулируемым «уровнем интеллекта» на базе решений Meta.

Постоянный URL: http://servernews.kz/1121795

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus