10.03.2025 Экспертиза, Безопасность, Искусственный интеллектИскусственный интеллект быстро развивается, оставляя организации открытыми для угроз. О том, почему нужно иметь возможность его отключить в случае необходимости, на портале Information Age рассказывает Дэвид Хиггинс, старший директор отдела полевых технологий компании CyberArk. ИИ развивается с бешеной скоростью, и меры безопасности не успевают за ним. Недавняя кибератака на DeepSeek, новую Open Source-платформу ИИ, стала ярким напоминанием о том, что системы ИИ — особенно агентный ИИ — уязвимы перед теми же угрозами, которые нависли над всей цифровой экосистемой. DeepSeek, которую часто называют «убийцей ChatGPT» за ее продвинутые языковые модели, ненадолго обогнала по популярности OpenAI с ее ChatGPT. Но так же быстро стала мишенью. Распределенная атака типа «отказ в обслуживании» (DDoS) заставила компанию прекратить регистрацию новых пользователей, пошатнув уверенность в надлежащей безопасности ее ИИ. Это вовсе не единичный случай. Модели ИИ, как с открытым исходным кодом, так и проприетарные, все чаще подвергаются атакам, будь то враждебное машинное обучение, отравление данных или взлом API. По мере того как агенты ИИ будут выполнять все более важные бизнес-функции, эти риски будут только расти. Чтобы решить эту проблему, индустрия ИИ должна пересмотреть свой подход к безопасности. Основополагающим элементом решения является «рубильник ИИ» — механизм, позволяющий остановить скомпрометированные системы ИИ до того, как они выйдут из-под контроля. И в основе этого ...
читать далее.