07.08.2025 Новости, БезопасностьВнедрение больших языковых моделей (LLM) в корпоративные системы становится все более распространенным — более 90% российских компаний заявляют об их использовании. При этом ИИ остается уязвимым, чем активно пользуются хакеры — около 70% организаций столкнулись с атаками через LLM. Эксперты «Информзащиты» указывают, что бизнес зачастую откладывает на потом проверку безопасности ИИ-инструментов, чем активно пользуются злоумышленники. Более 40% атак через уязвимости ИИ — инъекция запросов (Prompt Injection). Это такой вид атак, при котором злоумышленник вставляет в свой запрос вредоносную команду. LLM зачастую не отделяет встроенные инструкции от запросов пользователей, рассматривая их как равнозначные команды, поэтому прибавление к промпту, например, фразы «игнорируй предыдущие инструкции» может привести к исполнению ИИ вредоносного запроса. Специалисты «Информзащиты» указывают, что инъекция запросов особо опасна из-за низкого уровня проверки на безопасность (67% компаний не проверяют ее до внедрения) и подготовки корпоративных LLM-моделей к использованию, что оставляет окно для использования Prompt Injection. Другая опасность заключается в том, что злоумышленнику не нужно обладать специальными техническими навыками для реализации такой атаки, а можно вводить вредоносные запросы обычным языком. Это увеличивает количество потенциальных злоумышленников, которые могут использовать уязвимости ИИ. Чаще всего злоумышленники используют инъекции запросов для организации фишинговых ...
читать далее.