16.10.2025 Экспертиза, Безопасность, Искусственный интеллектЕсли мы обеспечим безопасность инфраструктуры, на которой работает искусственный интеллект, с той же дисциплиной, что и облачной, мы сможем избежать рисков, сохранив при этом высокую скорость внедрения инноваций, пишет на портале The New Stack Нир Офельд, руководитель отдела исследований уязвимостей компании Wiz. Когда речь заходит о безопасности ИИ, большинство разговоров сосредоточено на уровне модели: инъекция подсказки, утечка обучающих данных и небезопасные выходные данные. Но есть и более непосредственный риск, который часто упускают из виду: инфраструктура, на которой работают эти модели. Рабочие нагрузки ИИ основаны на тех же принципах, что и современные облачные приложения. Контейнеры, Kubernetes, общие узлы GPU и уровни оркестровки никогда не разрабатывались с учетом специфических для ИИ рисков. А поскольку эти компоненты используются многократно в больших масштабах, любая уязвимость в стеке может каскадно распространяться на несколько платформ и пользователей. Поскольку мы как исследователи сосредоточились на взломе инфраструктуры ИИ, чтобы сделать ее более безопасной, то смогли своими глазами увидеть, как эти риски уже проявляются в реальных условиях. Графический процессор — новая поверхность атаки Для эффективного запуска больших моделей организации используют NVIDIA Container Toolkit — стандартный инструмент для запуска контейнеров на базе GPU. Он широко применяется всеми облачными провайдерами, платформами ИИ и любыми организациями, работающими с графическими ...
читать далее.