19.11.2019 НовостиNVIDIA представила набор программного обеспечения NVIDIA Magnum IO, позволяющее исследователям в области ИИ и HPC обрабатывать большие объемы данных за считанные минуты вместо нескольких часов. ПО Magnum IO устраняет узкие места при хранении и передаче данных, ускоряя до 20 раз обработку массивов данных в многосерверных мульти-GPU вычислительных узлах и позволяя быстро выполнять финансовый анализ, моделирование климата и другие HPC-задачи. NVIDIA разработала Magnum IO в сотрудничестве с лидерами индустрии в сегменте передачи и хранения данных, включая DataDirect Networks, Excelero, IBM, Mellanox и WekaIO. «В основе всего того, что связано с ИИ, находится обработка больших объемов собранных или смоделированных данных, — отметил Дженсен Хуанг (Jensen Huang), учредитель и генеральный директор NVIDIA. — По мере экспоненциального увеличения объемов и скорости поступления данных их обработка становится одной из самых важных, но и крайне затратных задач для ЦОД». «Для экстремальных вычислений нужны экстремально быстрые интерфейсы. Именно это и обеспечивает ПО Magnum IO, применяя GPU-ускорение, кардинально изменившее вычисления, к передаче и хранению данных. Исследователям больше не придется долго ожидать окончания обработки данных. Теперь они смогут сконцентрироваться на сути своей работы», — добавил Дженсен Хуанг. В основе ПО Magnum IO лежит технология GPUDirect, позволяющая данным обходить CPU и перемещаться по магистралям, созданным графическими процессорами, накопителями ...
читать далее.