Материалы по тегу: chatgpt
01.10.2023 [20:55], Руслан Авдеев
Microsoft ищет более дешёвые в эксплуатации и простые альтернативы языковым моделям OpenAIХотя Microsoft принадлежит 49 % OpenAI, занимающейся разработкой популярных и производительных языковых моделей вроде GPT-4, интересы компаний не всегда совпадают. Как сообщает Silicon Angle, Bing Chat Enterprise первой и ChatGPT Enterprise второй, по сути, конкурируют за одну и ту же целевую аудиторию. Кроме того, Microsoft, стремящаяся внедрить ИИ почти во все свои программные продукты, готовит новые, более простые и менее ресурсоёмкие модели, чем GPT-4. По данным источников в OpenAI, в Microsoft обеспокоены высокой стоимостью эксплуатации передовых ИИ-моделей. Microsoft пытается встроить ИИ во многие продукты, включая Copilot для Windows на базе GPT-4. С учётом того, что пользователей Windows в мире больше 1 млрд, в компании опасаются, что повсеместное распространение ИИ-инструментов приведёт к неконтролируемому росту расходов. По некоторым данным, компания уже поручила части из своих 1,5 тыс. сотрудников ИИ-департамента заняться более экономичными альтернативами — пусть даже они будут не столь «сообразительными». Хотя реализация соответствующих проектов всё ещё находится на ранних стадиях, уже появилась информация, что компания начала внутренние тесты моделей собственной разработки. В частности, «творческий» и «точный» режимы Bing Chat опираются на GPT-4, тогда как «сбалансированный» использует новые модели Prometheus и Turing. Последняя может отвечать только на простые вопросы, а более каверзные она всё равно вынуждена передавать на обработку творению OpenAI. Для программистов у Microsoft есть модель Phi-1 с 1,3 млрд параметров, которая может эффективно генерировать код, но в остальном отстаёт от GPT-4. Ещё одной альтернативой стала разработанная Microsoft модель Orca на основе Meta✴ Llama-2, принадлежащей Meta✴. По некоторым данным, Orca близка по возможностям к моделям OpenAI, но компактнее и требует значительно меньше ресурсов. Считается, что подразделение Microsoft использует около 2 тыс. ускорителей NVIDIA, большинство из которых сегодня и применяется для тренировки более эффективных моделей, имеющих узкую специализацию в отличие от многопрофильной GPT-4. Если раньше состязание на рынке шло за создание ИИ с наибольшими возможностями, то теперь одним из важнейших факторов становится стоимость разработки и обслуживания таких инструментов.
11.09.2023 [19:35], Руслан Авдеев
GPT-3 «выпила» более 320 тыс. литров: ЦОД тратят огромное количество воды для охлаждения ИИ-серверовМногие знают, что ИИ-модели в процессе работы потребляют огромное количество энергии, но не всем известно, что им нужно ещё и очень много чистой воды. Как сообщает Silicon Angle, выяснилось, что ЦОД стоящих за работой ИИ-систем компаний тратят очень много воды, а у техногигантов вроде Google и Microsoft водопотребление только растёт. Как следует из доклада Associated Press, использование ЦОД Microsoft воды выросло с 2021 по 2022 гг. на 34 %, в прошлом году компания потратила 6,4 млрд литров. В тот же период водопотребление Google выросло на 20 %. По данным экспертов, занимавшихся исследованием воздействия генеративных ИИ-систем на окружающую среду, в большей части рост потребления вызван увеличением связанных с ИИ нагрузок. По некоторым оценкам, модель GPT-3 компании OpenAI, стоящая за чат-ботом ChatGPT, ответственна за трату более 320 тыс. л во время тренировки, а ChatGPT и вовсе «выпивает» 0,5 л воды каждую чат-сессию, состоящую из 25-50 запросов. Учитывается и непрямое использование воды, включающее затраты электростанций, питающих ЦОД. Для Google статистика оказалась крайне неоднородной и разнится от ЦОД к ЦОД — многое зависит от местоположения, сезона, технологии охлаждения и уровня потребления воды электростанциями. Впрочем, многие специалисты отрасли уверены, что рост потребления воды имеет важное значение, но большие опасения вызывает рост энергопотребления. Дело в том, что значительная часть используемой воды перерабатывается и применяется снова, тогда как об энергии нельзя сказать того же. Кроме того, Microsoft, Google и другие операторы ЦОД сами заинтересованы в сокращении потребления воды, поэтому будут принимать все необходимые меры для этого. Ранее Microsoft сообщала, что намерена стать «водно-положительной», «углеродно-отрицательной» и безотходной уже к 2030 году, а к 2024 году снизить потребление ЦОД воды на 95 % (в сравнении с 2021 годом). Впрочем, до сих пор нет точных определений некоторым терминам, например, никто детально не говорил, о какой «водно-положительности» идёт речь. Можно только предполагать, что компания намерена отдавать в природу больше воды, чем потребляет. Примером может служить Pepsi, которая, пропустив воду сквозь снековое оборудование в районе Мехико, очищает её до уровня питьевой и отправляет на другой завод — для мытья картофеля для чипсов. Таким образом, воды действительно поступает «в оборот» больше, чем изначально забирается из природных источников. В OpenAI, крупнейшим инвестором которой является Microsoft, подчеркнули, что осознают высокие уровни потребления ИИ энергии и воды и активно работают над повышением эффективности в этой сфере. Решением может стать создание для ИИ более эффективных алгоритмов и оборудования, хотя на это уйдёт некоторое время.
01.09.2023 [12:13], Сергей Карасёв
Сбербанк и «Яндекс» создадут аналоги GitHub CopilotСбербанк, по сообщению газеты «Коммерсантъ», создал инструмент разработки и автоматического дополнения кода GigaCode. Это отечественный аналог системы GitHub Copilot на базе ИИ, которая способна давать советы по написанию кода разработчикам ПО. Отмечается, что Сбербанк зарегистрировал программу GigaCode/JARVIS в реестре Роспатента. Этот инструмент подходит для разных языков программирования. Регистрация оформлена 8 августа нынешнего года, а 3 августа банк зарегистрировал домен gigacode.ru. Условия доступа к GigaCode пока не раскрываются. В апреле 2023-го Сбербанк представил нейросеть GigaChat, способную генерировать фрагменты программного кода. Говорится, что инструмент GigaCode «развивается параллельно с GigaChat и имеет ряд пересечений». Новая система может интегрироваться с популярными IDE, включая IntelliJ IDEA и PyCharm, а также Visual Studio Code. Возможность создания ИИ-сервиса для разработчиков также рассматривает «Яндекс». Участники рынка отмечают, что программисты проявляют интерес к инструментам генерации кода. Такие продукты способны ускорить разработку, но их массовое внедрение увеличит порог вхождения в профессию. Сервисы вроде GigaCode потенциально позволят автоматизировать рутинные операции и снизить нагрузку на разработчиков.
29.08.2023 [17:07], Руслан Авдеев
OpenAI представила сервис ChatGPT Enterprise с расширенной функциональностью и инструментами киберзащитыКомпания OpenAI продолжает расширять номенклатуру решений на основе ChatGPT. Как сообщает Silicon Angle, теперь в её портфолио появилась версия ChatGPT Enterprise, обеспечивающая корпоративным пользователям дополнительную функциональность и усиленную защиту, а в будущем появится ещё и версия ChatGPT Business. Речь идёт о решении, целевой аудиторией которого являются крупные организации и бизнес-структуры. ChatGPT Enterprise построен на основе расширенной версии большой языковой модели (LLM) GPT-4 и вдвое быстрее стандартного варианта при выдаче ответов. Одной из главных отличительных функций ChatGPT Enterprise является безлимитный доступ к инструменту Advanced Data Analysis. Ранее он был известен, как Code Interpreter и позволяет, например, осуществлять математические вычисления, визуализировать результаты или, например, менять форматы файлов обычными языковыми командами. В компании уже работают над усовершенствованной версией Advanced Data Analysis, а также намерены добавить боту и другие инструменты для анализа информации, маркетинга и поддержки клиентов. При этом разработчики увеличили максимальный объём запроса до 32 тыс. токенов за раз. Дополнительно предусматривается расширение набора данных, которые сможет использовать ChatGPT Enterprise для обучения. Например, в обозримом будущем станет возможны безопасное подключение к боту приложений, которые уже используются компаниями. Поскольку целевая аудитория ChatGPT Enterprise уделяет особое внимание защите своих данных, новый ИИ-бот соответствует стандарту кибербезопасности SOC 2, предусматривающему шифрование данных пользователей при передаче. Дополнительно защититься помогает консоль управления, интегрированная в интерфейс ChatGPT Enterprise. Например, с её помощью можно будет централизованно управлять аккаунтами сотрудников компаний и отслеживать их работу с чат-ботом. OpenAI сообщила, что ChatGPT Enterprise уже используется в тестовом режиме некоторыми компаниями, включая Canva Pty Ltd и Klarna Bank AB, а в ближайшие недели разработчик постарается привлечь как можно больше клиентов. Пока достоверно неизвестно, когда именно станут общедоступными анонсированные функции. Дополнительно в будущем планируется представить и ещё одну платную версию — ChatGPT Business для «команд любых размеров». Продукты OpenAI уже довольно активно используются корпоративными клиентами при содействии партнёров компании. Например, доступ к ChatGPT ещё в марте появился в облачной службе Microsoft Azure OpenAI Service.
24.04.2023 [15:51], Руслан Авдеев
GPT-4 в помощь разработчикам: Atlassian интегрирует генеративный ИИ в Confluence и JiraКомпания Atlassian Corp. оказалась в числе догоняющих, добавив генеративный ИИ в свои разработки значительно позже, чем многие другие IT-гиганты. Тем не менее, она создала важные инструменты для собственных платформ и, как сообщает Silicon Angle, новое решение Atlassian Intelligece позволит заметно упростить работу в Confluence и Jira. Известно, что Atlassian Intelligence задействует как решения, полученные после покупки стартапа Percept.AI ещё в начале прошлого года, так и большую языковую модель (LLM) GPT-4, стоящую за популярным чат-ботом ChatGPT компании OpenAI. Как сообщают в Atlassian, её инструмент Atlassian Intelligence не только позволяет наглядно визуализировать работу команды, но и координировать взаимодействие сотрудников. А открытость платформы позволяет нарастить функциональность с помощью сторонних приложений. По данным Atlassian, GPT-4 также сможет помогать командам всевозможными способами, ускоряя работу и обеспечивая быструю помощь в решении задач и вопросов. В частности, Confluence в один клик на непонятный пользователю термин будет генерировать объяснение со ссылками на другие релевантные материалы. Дополнительно пользователи смогут задавать вопросы и получать ответы, созданные на основе информации, полученной из корпоративных документов. Например, можно попросить бота сгенерировать резюме недавней рабочей встречи, добавив ссылку на расшифровку аудиозаписи, после чего система сама расскажет, какие решения и кем были приняты. Более того, Atlassian Intelligence может создавать даже посты для социальных сетей на основе спецификаций продуктов, полученных из базы Confluence. Платформа Jira без ИИ-обновлений тоже не осталась. Например, разработчики могут быстро создать проект плана тестирования ПО или получить информацию из существующей базы данных для помощи как клиентам, так и сотрудникам службы поддержки. Более того, система может составлять резюме предыдущих диалогов для того, чтобы новые сотрудники немедленно вникали в суть проблемы. Ещё одной важной функцией Atlassian Intelligence является возможность преобразовать вопросы в произвольной форме в запросы на специальном языке Jira Query Language — предполагается, что это будет очень полезно разработчикам. В Atlassian заявляют, что клиентам придётся зарегистрироваться в списке ожидания для доступа к новым функциям, которые пока доступны только в облачных продуктах в режиме бета-тестирования. Те, кто подписался, могут рассчитывать на тестирование новых функций в течение нескольких месяцев. Со временем многие из новых возможностей станут платными, но, например, виртуальный агент для Jira Service Management будет доступен без дополнительной оплаты в тарифных планах Premium и Enterprise. Увы, в России ещё в марте прошлого года Atlassian прекратила продажи своих продуктов и заморозила подписки ряду отечественных компаний. Позже появились желающие представить альтернативы её продуктам. Так, в конце 2022 года «Ростелеком» озвучил намерение выделить 1 млрд рублей на разработку альтернативной платформы «Яга».
13.04.2023 [21:03], Владимир Мироненко
Databricks выпустила полностью бесплатную и открытую ИИ-модель Dolly для создания аналогов чат-бота ChatGPTПоставщик решений для аналитики больших данных и машинного обучения Databricks (США) объявил о выходе Dolly 2.0, модели генеративного искусственного интеллекта (ИИ) следующего поколения с открытым исходным кодом, которая имеет сходные с ChatGPT (OpenAI) возможности. Dolly 2.0, как и предшественница Dolly, вышедшая пару недель назад, использует меньший набор данных, чем имеется у большинства больших языковых моделей (LLM). Dolly имела 6 млрд параметров, а у Dolly 2.0 их вдвое больше — 12 млрд. Для сравнения, у GPT-3 — 175 млрд параметров. Сообщается, что Dolly 2.0 была построена на высококачественном наборе данных. Отличительной особенностью новых моделей генеративного ИИ является возможность использовать собственный набор данных обучения для создания связных предложений и ответов на вопросы пользователей. И Dolly 2.0 может делать это, даже несмотря на намного меньший объём исходных данных, чем у моделей OpenAI. Это, в свою очередь, позволяет использовать модель на собственных серверах без необходимости делиться данными со сторонними организациями. «Мы считаем, что такие модели, как Dolly, помогут демократизировать LLM, превратив их из того, что могут себе позволить очень немногие компании, в товар, которым может владеть каждая компания и который можно настраивать для улучшения своих продуктов», — заявила Databricks. Руководитель Databricks в комментарии изданию SiliconANGLE подчеркнул, что предприятия «могут монетизировать Dolly 2.0». Databricks предлагает Dolly 2.0 под лицензией Creative Commons, с полностью открытыми исходным кодом и набором данных для обучения databricks-dolly-15k, который содержит 15 тыс. высококачественных пар запросов и ответов, созданных человеком. Всё это можно свободно использовать, изменять и дополнять, а также задействовать в коммерческих проектах, ничего никому не платя. Исследователи и разработчики могут получить доступ к Dolly 2.0 на Hugging Face и GitHub. Как утверждает Databricks, в настоящее время Dolly 2.0 является единственной моделью, которая не имеет лицензионных ограничений. Другие модели, включая Alpaca, Koala, GPT4All и Vicuna, нельзя использовать в коммерческих целях из-за использования обучающих данных, предоставленных им с определёнными условиями. Исходный вариант Dolly был обучен на данных Stanford Alpaca с использованием API OpenAI, так что её нельзя было использовать в коммерческих целях, так как в этом случае лицензии запрещают создавать конкурирующие модели. Поэтому Databricks решила создать собственную модель, используя только ответы её сотрудников. Задания для них включали, например, просьбы высказаться на тему «Почему людям нравятся комедии?», обобщить информации из Википедии, написать любовные письма, стихов и даже песни.
07.04.2023 [19:49], Владимир Мироненко
Bloomberg создала собственную ИИ-модель BloombergGPT, которая меньше ChatGPT, но эффективнее при использовании в финансовых операцияхФинансовая фирма Bloomberg решила доказать, что существуют более разумные способы тонкой настройки ИИ-приложений, не имеющих проблем с соблюдением принципов этики или с безопасностью, с которыми сталкиваются при использовании, например, ChatGPT. Bloomberg выпустила собственную большую языковую модель BloombergGPT с 50 млрд параметров, предназначенную для финансовых приложений. Она меньше ChatGPT, основанной на усовершенствованной версии GPT-3 со 175 млрд параметров. Но, как утверждают исследователи из Bloomberg и Johns Hopkins, малые модели — то что нужно для предметно-ориентированных приложений. Bloomberg заявила, что не будет открывать BloombergGPT из-за риска утечки конфиденциальных данных, например, из базы FINPILE, использовавшейся для обучения. По словам исследователей, BloombergGPT функционально схожа с ChatGPT, но предлагает большую точность, чем сопоставимые модели с бо́льшим количеством параметров. Они также утверждают, что общие модели не могут заменить предметно-ориентированные. Малые модели отличаются большей точностью результатов и могут обучаться значительно быстрее, чем универсальные модели, такие как GPT-3. К тому же для них требуется меньше вычислительных ресурсов. Bloomberg потратила около 1,3 млн GPU-часов на обучение BloombergGPT на ускорителях NVIDIA A100 в облаке AWS. Обучение проводилось на 64 кластерах ускорителей, в каждом из которых было по восемь A100 (40 Гбайт), объединённых NVswitch. Для связи использовались 400G-подключения посредством AWS Elastic Fabric и NVIDIA GPUDirect Storage, а для хранения данных была задействована распределённая параллельная файловая система Lustre с поддержкой скорости чтения и записи до 1000 Мбайт/с. Общего объёма памяти всех ускорителей оказалось недостаточно, поэтому Bloomberg произвела оптимизацию для обучения модели: разбиение на отдельные этапы, использование вычислений смешанной точности (BF16/FP32) и т.д. «После экспериментов с различными технологиями мы достигли [производительности] в среднем 102 Тфлопс, а каждый этап тренировки занимал 32,5 с», — сообщили исследователи. Bloomberg задействовала чуть больше половины (54 %) имеющегося у неё набора данных — 363 млрд документов (с 2007 года) из внутренней базы данных Bloomberg. Остальные 345 млрд документов были получены из общедоступных пресс-релизов, новостей Bloomberg, публичных документов и даже Википедии. Документы получили название «токен». Исследователи стремились, чтобы обучающие последовательности имели длину 2048 токенов, чтобы поддерживать максимально высокий уровень использования ускорителей.
22.03.2023 [12:38], Сергей Карасёв
Microsoft обеспечила облачный доступ к GPT-4 в Azure OpenAI ServiceКорпорация Microsoft сообщила о том, что новейшая версия большой языковой ИИ-модели компании OpenAI стала доступна в облачной службе Azure OpenAI Service. Речь идёт о модели GPT-4, которая была официально представлена немногим более недели назад. Изначально Microsoft объявила об интеграции чат-бота ChatGPT в состав Azure OpenAI Service в начале марта нынешнего года. Тогда говорилось, что заявки на использование наиболее передовых ИИ-моделей, включая Dall-E 2, GPT-3.5 и Codex, подали более 1000 клиентов. Теперь же клиенты могут подать заявку на использование GPT-4. Стоимость услуги составляет от $0,03 до $0,12 за обработку 1 тыс. токенов — элементов, на которые разбивается текст при работе. «Недавно анонсированные новые продукты Bing и Microsoft 365 Copilot уже работают на GPT-4, и теперь компании получат возможность использовать те же базовые расширенные модели для создания собственных приложений с применением службы Azure OpenAI Service», — говорится в публикации Microsoft. С помощью GPT-4 корпоративные пользователи смогут оптимизировать взаимодействие как внутри компании, так и со своими клиентами. На базе Azure OpenAI Service, например, можно быстро создавать виртуальных помощников. В целом, как утверждается, технологии генеративного ИИ открывают принципиально новые возможности для бизнеса в каждой отрасли.
10.03.2023 [16:23], Руслан Авдеев
Доступ к ChatGPT появился в облачной службе Microsoft Azure OpenAI ServiceКомпания Microsoft анонсировала релиз превью-варианта интеграции чат-бота ChatGPT в службу Azure OpenAI Service. Как сообщает сайт Microsoft, более 1000 клиентов облачного сервиса уже подали заявки на использование наиболее передовых ИИ-моделей, включая Dall-E 2, GPT-3.5 и Codex. Использование вычислительных мощностей Azure, сообщает компания, обеспечивает подобным технологиям самые широкие перспективы. Клиенты Azure OpenAI Service могут интегрировать ChatGPT в собственные приложения, предусмотрено даже наделение уже существующих ботов новыми способностями, возможно использование в колл-центрах и автоматизация обработки жалоб. Стоимость услуги составляет $0,002 за обработку 1 тыс. токенов — это элементы, на которые разбивается текст при работе. Плата за использование начнёт взиматься с 13 марта. В Microsoft уточняют, что преимущества от использования Azure OpenAI Service получили не только малые и большие облачные клиенты. В самой компании работают над объединением возможностей больших языковых моделей (LLM) и оптимизированной с помощью ИИ инфраструктуры Azure, для того чтобы обеспечить новые предложения. Так, GitHub Copilot использует ИИ-модели в Azure OpenAI Service для помощи в разработке кода, в Microsoft Teams Premium появилась функция автоматического создания резюме бесед, а приложение Microsoft Viva Sales позволяет продавцам использовать пакет Microsoft 365 и Microsoft Teams для автоматического внесения данных в CRM-систему без ручного ввода. Наконец, в поисковике Bing появился ИИ-чат, обеспечивающий пользователям беспрецедентный опыт поиска контента в Сети. Клиенты и партнёры Microsoft будут создавать с помощью Azure OpenAI Studio новые «умные» приложения и решения даже без необходимости программирования. При этом такое ПО позволяет настраивать любую ИИ-модель, предлагаемую Microsoft, обеспечивает особый интерфейс для настройки ChatGPT и предоставляет варианты реакций бота на действия пользователей в зависимости от потребностей заказчика. При этом в Microsoft напоминают, что генеративные языковые модели могут давать убедительные, но неверные ответы или, например, создавать реалистичные изображения того, чего никогда не было. Другими словами, пока никакой ИИ не является средством решения любых проблем. Для того чтобы защитить пользователей от ошибок, Microsoft требует ответственного использования нового инструментария и соответствия разработок правилам Responsible AI Standard — на техническом и правовом уровнях.
17.01.2023 [14:20], Руслан Авдеев
ChatGPT появится в облаке Microsoft AzureКомпания Microsoft, немало потратившая на развитие технологий, стоящих за получившим вирусную популярность чат-ботом ChatGPT, намерена предоставить это решение в своих облачных сервисах Azure. При этом, как сообщает Bloomberg, компания рассматривает возможность в разы увеличить инвестиции в разработчика бота — компанию OpenAI. До сегодняшнего дня сервис Azure OpenAI был доступен ограниченному кругу избранных клиентов. В частности, пользователи получили доступ к инструментам OpenAI, включая языковую систему GPT-3.5, на которой и основан ChatGPT. Сотрудничество Microsoft и OpenAI позволяет клиентам применять продукты последней в своих облачных приложениях — компания объявила о доступности облачных сервисов OpenAI для всех желающих. В 2019 году Microsoft уже вложила в OpenAI $1 млрд, получив доступ к самым передовым технологиям в сфере ИИ для развития собственных проектов. Компания использует систему OpenAI Codex для автоматизации своего инструмента для помощи программистам — Copilot. Более того, в скором будущем техногигант намерен интегрировать технологии OpenAI в поисковый движок Bing, приложения пакета Office и приложение Teams, а также антивирусное программное обеспечение. Технология ChatGPT стала чрезвычайно популярной в конце прошлого года, менее, чем за неделю получив больше миллиона пользователей. Механизм имитации в достаточной степени осмысленной человеческой речи вызвал озабоченность среди профессиональных авторов контента и даже крупных корпораций вроде Google, посчитавших его угрозой своему поисковому бизнесу. Известно, что OpenAI уже работает над технологией обработки естественных языков нового поколения — GPT-4. В Microsoft настолько заинтересовались технологиями OpenAI, что теперь, по словам осведомлённых источников, намерены инвестировать в компанию ещё $10 млрд. По некоторым данным, благодаря инвестициям оценочная стоимость OpenAI может подняться до $29 млрд. В самих компаниях возможные инвестиции не комментируют. Впрочем, пока возможности практического применения — облачными клиентами или обычными пользователями — ограничены. Сами разработчики подтверждают, что к «творениям» ИИ необходимо относиться с осторожностью, поскольку тот способен давать ошибочные советы и с уверенным видом генерировать ошибочную информацию, включая материалы для разработчиков. Более того, в некоторых школах США уже запрещено создание учениками эссе и других материалов с его помощью. |
|