Сегодня 29 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

ИИ-боты начинают чаще привирать, когда их просят о лаконичных ответах — исследование

Исследователи из французской компании Giskard, занимающейся тестированием искусственного интеллекта, пришли к выводу, что чем короче ответы ChatGPT и других ИИ-помощников, тем выше вероятность выдачи недостоверной информации. Такие запросы, как «ответь кратко» или «объясни в двух предложениях» заставляют модели привирать и быть неточными.

 Источник изображения: AI

Источник изображения: AI

Как пишет TechCrunch, в ходе исследования специалисты проанализировали поведение популярных языковых моделей, включая GPT-4o от OpenAI, Mistral Large и Claude 3.7 Sonnet от Anthropic и установили, что при запросах на краткие ответы, особенно по неоднозначным или спорным темам, модели чаще выдают ошибочную информацию. «Наши данные показывают, что даже простые изменения в инструкциях значительно влияют на склонность моделей к галлюцинациям», — отметили в Giskard.

Галлюцинации остаются одной из главных нерешённых проблем в области генеративного ИИ. Даже передовые модели, основанные на вероятностных алгоритмах, могут придумывать несуществующие факты. По словам авторов исследования, новые модели, ориентированные на рассуждение, такие как o3 от OpenAI, склонны к галлюцинациям даже чаще, чем их предшественники, что не может не снижать доверие к их ответам.

Отмечается, что одной из причин повышенной склонности к ошибкам является ограниченность пространства для объяснений. Когда модель просят быть краткой, она не может полностью раскрыть тему и опровергнуть ложные предпосылки в запросе. Однако этот момент очень важен для разработчиков кода, поскольку промпт, содержащий инструкцию типа «будь кратким» может навредить качеству ответа.

Кроме того, было замечено, что модели реже опровергают спорные утверждения, если их высказывают уверенно. Также оказалось, что те ИИ, которые пользователи чаще оценивают как удобные или приятные в общении, не всегда отличаются высокой степенью точности ответов.

Эксперты из Giskard советуют тщательнее подбирать инструкции для ИИ и избегать строгих ограничений на длину ответов. «Кажущиеся безобидными подсказки вроде "будь лаконичным" могут незаметно ухудшить качество информации», — предупреждают они.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Пользователи Steam в Великобритании теперь смогут зайти на страницы игр для взрослых только после проверки возраста 2 ч.
Массовый исход сотрудников элитной лаборатории суперинтеллекта Meta дестабилизировал всю компанию 2 ч.
«Убожество за $200»: игроки высмеяли коллекционное издание Metal Gear Solid Delta: Snake Eater со Снейком в террариуме 3 ч.
ИИ и IIoT помогли Aramco сократить время простоев на 40 % и снизить расходы на техобслуживание на 30 % 3 ч.
Лучшая защита — нападение: Google начнёт проводить кибератаки на хакеров 4 ч.
В Twitch опровергли резкое падение просмотров из-за волны блокировок ботов 6 ч.
Олдскульный хоррор Eclipsium отправит игроков в гротескный и изменчивый мир, причём совсем скоро — трейлер, дата выхода и обновлённое демо 6 ч.
Цукерберг науськал Трампа ввести пошлины против стран, которые мешают американским бигтехам 7 ч.
Meta не забросила метавселенную — в Horizon Worlds появятся полноценные NPC с ИИ 8 ч.
Рукоприкладство, бабки-пришельцы и очарование общественного транспорта: в Steam скоро выйдет безумный симулятор кондуктора троллейбуса Troleu 9 ч.