13.05.2025 Экспертиза, Искусственный интеллектИзначально искусственный интеллект казался поразительным благодаря своим многочисленным возможностям, включая ответы на вопросы, обобщение документов и даже написание кода. Однако все большее беспокойство вызывает то, что системы ИИ часто придумывают ложную информацию — так называемые галлюцинации, — причем уровень ошибок в некоторых тестах достигает 79%, сообщает портал eWeek. Недавно эта проблема затронула клиентов Cursor, платформы ИИ-ассистента по написанию кода, когда ее ИИ-бот поддержки ложно заявил, что пользователи могут установить программу только на один компьютер. Это вызвало возмущение, и некоторые клиенты отменили подписку, прежде чем компания вмешалась. «У нас нет такой политики. Вы, конечно, можете использовать Cursor на нескольких машинах», — заявил генеральный директор Cursor Майкл Труэлл. Этот инцидент подчеркивает, что галлюцинации ИИ выходят за рамки безобидных ошибок и приводят к реальным последствиям. Проблемы с точностью ИИ в моделях от OpenAI, DeepSeek, IBM Независимые тесты, посвященные галлюцинациям, выявили тревожные тенденции, и растущие показатели ошибок ИИ вызывают беспокойство экспертов. Vectara, которая отслеживает, как часто ИИ занимается выдумыванием информации, утверждает, что галлюцинации ИИ становятся все более распространенными, даже в задачах, которые легко проверить. Компания обнаружила, что модель o3 от OpenAI в 6,8% случаев придумывает детали при обобщении новостных статей — простой и проверяемой задаче. Модель R1 от DeepSeek ...
читать далее.