20.03.2024 Экспертиза, Безопасность, Искусственный интеллектС ростом популярности искусственного интеллекта безопасность приобретает все большее значение в каждой организации, что порождает новую проблему — приложения «теневого ИИ», которые необходимо проверять на соответствие политикам безопасности, пишет на портале Network Computing Камал Шринивасан, старший вице-президент по управлению продуктами и программами компании Parallels (часть Alludo). Проблема теневых ИТ последних лет превратилась в проблему теневого ИИ. Растущая популярность больших языковых моделей (LLM) и мультимодальных языковых моделей привела к тому, что продуктовые команды в организациях стали использовать эти модели для создания сценариев применения, повышающих производительность. Появилось множество инструментов и облачных сервисов, упрощающих создание и развертывание приложений генеративного ИИ (GenAI) командами маркетинга, продаж, разработки, юристов, кадровиков и т. д. Однако, несмотря на быстрое внедрение GenAI, службы безопасности еще не определились с последствиями и политикой. При этом команды разработчиков продуктов, создающие приложения, не ждут, пока их догонят команды безопасности, тем самым создавая потенциальные проблемы безопасности. ИТ-отделы и службы безопасности сталкиваются с несанкционированными приложениями, которые могут приводить к угрозам проникновения в сеть, утечке данных и сбоям в работе. В то же время организации должны избегать слишком жесткого подхода, который может затормозить инновации и помешать разработке прорывного продукта ...
читать далее.