12.05.2025 Экспертиза, Безопасность, Искусственный интеллект, МенеджментДжимми Места, основатель и технический директор компании RAD Security, рассказывает на портале The New Stack о том, почему разработчики внедряют искусственный интеллект за вашей спиной — и как это обнаружить. Несколько месяцев назад платформенный инженер в одной из средних финтех-компаний подключил большую языковую модель (LLM) от OpenAI к конвейеру Terraform. Он не пытался скрыть это. Он просто хотел автоматически помечать облачные ресурсы, а LLM справляется с этой задачей лучше и быстрее, чем все, что его команда создала своими силами. Но об этом узнала служба безопасности. И началось: паника по поводу аудита, проверка рисков, ретроактивные разрешения... Звучит знакомо? LLM теперь представляют собой новые теневые ИТ. Они проникают в рабочую среду быстрее, чем большинство организаций успевает их отследить. Теневой ИИ означает, что разработчики интегрируют LLM или системы генеративного ИИ (GenAI) в производственные рабочие процессы без согласования. Они тестируют подсказки на живых данных клиентов, вызывают LLM из неавторизованных скриптов и запускают тонко настроенные модели на кластерах GPU без уведомления служб безопасности и управления. Хотя разработчики, возможно, и не собираются создавать риски, эти действия полностью обходят видимость, контроль и политику. Почему это происходит? Потому что разработчикам не нужно разрешение на установку пакета Python. Потому что использовать ключ API проще, чем отправить Jira-тикет. Потому что ИИ работает. И это то, о чем никто ...
читать далее.