07.04.2025 Экспертиза, Искусственный интеллект, Менеджмент
Источник: отчет The Institute for Ethical AI & Machine Learning «The State of MLOps Survey»
Согласно новому исследованию The Institute for Ethical AI & Machine Learning «The State of MLOps Survey», проведенному в IV квартале 2024 г., наблюдаемость и мониторинг — а не безопасность — являются наиболее часто упоминаемыми проблемами при внедрении моделей машинного обучения в производство, сообщает портал The New Stack. Другой ключевой вывод: в дорожных картах пользователей преобладают инструменты, созданные на заказ, поскольку лишь немногие инструменты поставщиков получили значительное распространение. В целом 44% из 170 опрошенных практиков являются инженерами МО, и примерно столько же идентифицируют себя как специалисты в области науки о данных или MLOps-инженеры. Только 7% респондентов заявили, что безопасность MО входит в тройку их главных проблем, и только 17% сказали то же самое о рисках управления и доменных рисках. Этот вывод значительно отличается от результатов других исследований, в которых безопасность и управление ИИ назывались в числе самых серьезных препятствий для более широкого внедрения. Вероятно, специалисты-практики считают, что безопасность ИИ связана только с возможностью взлома модели, в то время как другие лица, принимающие решения в сфере ИТ, больше беспокоятся об общем доступе к корпоративным и личным данным. Похоже, что каждое предприятие, как минимум, экспериментирует с генеративным ИИ и агентами ИИ, которые опираются на большие языковые модели (LLM). В то же время продолжает расти применение предиктивной аналитики и компьютерного ...
читать далее.