20.05.2025 Экспертиза, Искусственный интеллектРазвертывание в центрах обработки данных рабочих нагрузок искусственного интеллекта, использующих графические процессоры (GPU), требует специального сетевого оборудования и оптимизации, пишет на портале ComputerWeekly Эндрю Лернер, заслуженный вице-президент-аналитик компании Gartner. CIO ожидают от своих инвестиций в ИИ значительных результатов, включая улучшение производительности, клиентского опыта (CX) и цифровой трансформации. В результате интерес предприятий к развертыванию инфраструктуры ИИ, включая GPU и ИИ-серверы, значительно растет. В частности, с октября 2022 г. по октябрь 2024-го число запросов клиентов Gartner, касающихся GPU и инфраструктуры ИИ, ежегодно увеличивалось почти в четыре раза. Организации изучают возможность использования хостинговых, облачных и локальных вариантов развертывания GPU. В некоторых случаях они выбирают предложение «полного стека» ИИ, содержащее GPU, вычислительные системы, системы хранения и сети в одном пакете. В других случаях предприятия выбирают и развертывают отдельные компоненты, подобранные и интегрированные по отдельности. Важно понимать, что требования рабочих нагрузок ИИ отличаются от требований большинства существующих рабочих нагрузок в дата-центрах. Для поддержки подключения GPU существует множество технологий межсоединений. Часто клиенты Gartner спрашивают: «Что лучше использовать для подключения к кластерам GPU: Ethernet, InfiniBand или NVLink?». В зависимости от сценария могут быть использованы все три подхода. Эти ...
читать далее.