05.08.2020 Экспертиза, Искусственный интеллектGPU-вычисления помогут обойти ограничения закона Мура
Экосистема вычислений на базе графических процессоров (graphics processing unit, GPU) стремительно развивается. Конечная цель — повысить эффективность и масштабируемость различных рабочих нагрузок, которые выполняются на GPU. Тем не менее, существуют приемы, позволяющие максимизировать производительность дорогостоящих графических процессоров для выполнения таких задач, как работа с искусственным интеллектом, и при этом избежать потенциальных проблем с СХД и сетями. Повышенные требования к вычислительным ресурсам, которые демонстрируют приложения ИИ, машинного обучения (МО) и глубокого обучения (ГО), бросают вызов производительности, надежности и масштабируемости ЦОДов, особенно это касается ситуаций, когда архитекторы имитируют дизайн публичных облаков, чтобы упростить переход к гибридным облакам и локальным развертываниям. В настоящее время рынок начал стремительно наполняться GPU-серверами, а вместе с ними, чтобы повысить эффективность и масштабируемость рабочих нагрузок GPU, начала развиваться экосистема GPU-вычислений. Вместе с тем существуют приемы, которые позволяют максимизировать дорогостоящие вычислительные ресурсы GPU, избегая при этом потенциально узких мест с СХД и сетью. CTO компании Excelero Свен Бройнер и его коллега, системный архитектор Кирилл Шойхет приводят на портале eWeek девять лучших практик по подготовке ЦОДов для работы с ИИ, МО и ГО. 1. Хорошо изучите целевую производительность системы, ROI и планы масштабируемости Это требуется для того, чтобы ...
читать далее.