16.12.2025 Новости, Безопасность, Искусственный интеллект, ОС и разработка приложений, Рейтинги, исследования74% финтех-компаний концентрируют защитные меры на этапе подготовки данных и тестирования моделей, а 60% — уже внедряют комплексные меры по защите своих ИИ-систем В число наиболее распространенных практик входят регулярный мониторинг и аудит работы моделей, активное тестирование на уязвимости, обязательное обучение сотрудников основам AI Security, разработка внутренних стандартов и политик безопасности. Такие данные приводятся в совместном исследовании Ассоциации ФинТех и ГК Swordfish Security. ГК Swordfish Security и Ассоциация ФинТех (АФТ) представили совместное исследование «AI Security», посвященное анализу текущего состояния и перспектив развития безопасности искусственного интеллекта в российских финтех-компаниях. 81% компаний российского финтеха определяют машинное обучение (ML) и большие языковые модели (LLM) как ядро своих ИИ-стратегий. При этом, более 25% респондентов уже несколько раз столкнулись с инцидентами безопасности, связанными с атаками на ИИ-системы. 75% финтех-организаций выделяют утечку конфиденциальных данных в качестве ключевой угрозы безопасности при использовании ИИ, 62% — применяют гибридный подход к оценке результатов и выводов в работе с ИИ-решениями и только 12% респондентов внедряют системную оценку этических рисков ИИ. «Искусственный интеллект трансформирует подход к кибербезопасности. Модель угроз меняется, поверхность атак становится иной, поэтому уже сегодня нужно обновлять традиционные стратегии и подходы. ИИ требует новой логики ...
читать далее.