04.03.2024 Новости, Безопасность, Конфликты, Обзоры рынков, ОС и разработка приложенийЧат-боты не опасны сами по себе, но злоумышленники могут использовать их в неправомерных целях Растущая популярность таких технологий, как LLM (Large Language Models, большие языковые модели), облегчает выполнение типовых задач и повышает доступность информации, но вместе с тем создаёт новые риски для информационной безопасности. Активные обсуждения способов использования языковых моделей ведутся не только среди разработчиков программного обеспечения и энтузиастов AI (Artificial Intelligence, искусственный интеллект), но и среди злоумышленников. Более того, уже известны примеры, когда злоумышленники якобы использовали чат-бот ChatGPT для фишинговых атак, анализа данных о потенциальных жертвах и персонализации мошеннических сообщений — с целью увеличить вероятность успешного взлома. Весь 2023 год эксперты «Лаборатории Касперского» наблюдали многочисленные обсуждения, в ходе которых участники киберпреступных форумов обменивались способами использования ChatGPT для неправомерных целей. Всего они обнаружили на теневых форумах и в специализированных Telegram-каналах 2890 таких постов. В них обсуждались разные сценарии использования решений на основе больших языковых моделей. Специалисты видят, что используемые модели становятся всё более сложными, а их интеграция — всё более эффективной. Многочисленные обсуждения можно разделить на несколько направлений. Использование чат-бота для написания вредоносной программы. На теневых форумах обсуждалась возможность использовать ChatGPT ...
читать далее.