Уважаемые партнеры! Приглашаем вас принять участие в маркетинговой акции Yealink «Бонус на связи!». Период действия акции: 01 декабря 2025 г. – 31 декабря 2025 г. – За закупку IP-телефонов и гарнитур Yealink вам будут начисляться бонусы. – Для каждой модели предусмотрен ...
Уважаемые партнеры! Treolan предлагает вам принять участие в программе по продукции Netac. Совершая покупку продукции Netac в Treolan, вы можете получить подарочные сертификаты федеральных сетей на ваш выбор. Для участия в программе необходимо зарегистрироваться
Предновогодняя распродажа Datalogic стартовала! Специальное предложение до конца 2025 года — на ручные и стационарные сканеры Datalogic действуют эксклюзивные цены! Прямо сейчас к оперативной отгрузке со склада PROWAY доступны: Ручной беспроводной сканер Datalogic QuickScan QBT2500-BK-BTK1 Данная ...
Получите кешбэк 5% на закупку новых моделей корпусов CBR до 8 декабря: CBR V201 — 260 x 165 x 353 мм, 2×HDD + 2×SSD, видеокарта до 250 мм, 2×USB 2.0; CBR V203 — 260 x 165 x 353 мм, 2×HDD + 2×SSD, видеокарта до 250 мм, USB 2.0, USB 3.0; CBR V205 — 260 x 165 x ...
Уважаемые партнеры! Приглашаем вас принять участие в промопрограмме по продукции НИИ «Масштаб». Покупая хотя бы одну лицензию виртуализации, а также любые другие решения НИИ Масштаб в Treolan, вы получаете подарочный сертификат на ваш выбор. Для участия в программе необходимо зарегистрироваться
Чат-боты не опасны сами по себе, но злоумышленники могут использовать их в неправомерных целях Растущая популярность таких технологий, как LLM (Large Language Models, большие языковые модели), облегчает выполнение типовых задач и повышает доступность информации, но вместе с тем создаёт новые риски для информационной безопасности. Активные обсуждения способов использования языковых моделей ведутся не только среди разработчиков программного обеспечения и энтузиастов AI (Artificial Intelligence, искусственный интеллект), но и среди злоумышленников. Более того, уже известны примеры, когда злоумышленники якобы использовали чат-бот ChatGPT для фишинговых атак, анализа данных о потенциальных жертвах и персонализации мошеннических сообщений — с целью увеличить вероятность успешного взлома. Весь 2023 год эксперты «Лаборатории Касперского» наблюдали многочисленные обсуждения, в ходе которых участники киберпреступных форумов обменивались способами использования ChatGPT для неправомерных целей. Всего они обнаружили на теневых форумах и в специализированных Telegram-каналах 2890 таких постов. В них обсуждались разные сценарии использования решений на основе больших языковых моделей. Специалисты видят, что используемые модели становятся всё более сложными, а их интеграция — всё более эффективной. Многочисленные обсуждения можно разделить на несколько направлений. Использование чат-бота для написания вредоносной программы. На теневых форумах обсуждалась возможность использовать ChatGPT ... читать далее.