02.03.2026 МненияВ январе текущего года корпорация Microsoft признала наличие ошибки в сервисе Microsoft 365 Copilot, из-за которой ИИ-ассистент обобщал содержимое служебных и конфиденциальных писем, включая сообщения с соответствующей маркировкой, фактически обходя механизмы предотвращения утечек данных (DLP). По данным компании, нейросеть могла без прямого запроса пользователя анализировать письма из папок «Отправленные» и «Черновики», а также сохранять обработанную информацию на отдельных серверах. Исправление начали внедрять в феврале, однако масштаб инцидента и точные сроки полного устранения проблемы публично не раскрываются. Ситуацию прокомментировал член комитета Государственной Думы по информационной политике, информационным технологиям и связи, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин: «Этот случай — прямое подтверждение того, что использование зарубежных ИИ-платформ в чувствительных сферах связано с серьезными рисками. Речь идет не о гипотетических угрозах, а о фактах: конфиденциальная переписка могла обрабатываться без явного согласия пользователя и вне рамок заявленных механизмов защиты». По словам депутата, подобные инциденты демонстрируют уязвимость организаций, которые критически зависят от иностранных цифровых решений: «Когда корпоративная почта, внутренние документы и управленческая переписка проходят через алгоритмы, находящиеся вне российской юрисдикции, мы объективно теряем контроль над данными. Это вопрос не только коммерческой тайны, но ...
читать далее.