16.10.2008 ОбзорыЗа минувший год тема виртуализации превратилась не просто в мейнстрим современных корпоративных ИТ, а в какой-то набирающий силу горный поток, в котором не так-то просто отследить логику развития событий. Все мировые ведущие ИТ-поставщики говорят о своей приверженности идеям виртуализации, о разработке таких решений или об их поддержке в своих продуктах. При этом в условиях маркетинговой шумихи очень трудно разобраться, где речь идет о чем-то действительно новом, а где — лишь о представлении старых решений в новой “обертке”. Вместе с тем в глазах общественности (да и аналитиков) явно отошла на второй план технологическая составляющая проблемы виртуализации. Проповедники этой технологии делают основной акцент на тех благах (разумеется, в первую очередь говорится о защите инвестиций и снижении совокупной стоимости владения), которые несут данные средства. Но при этом часто обходится стороной другой вопрос — почему существующие ИТ не способны решить проблемы, скажем, серверной консолидации и зачем понадобилось создание чего-то еще? Остается нерешенным и еще один вопрос: какие архитектурно-технологические принципы лежат в основе создания виртуальных средств? Ведь можно предположить, что архитектурные основы у разных вендоров всё же чем-то различаются, а это имеет значение для оценки текущих и, что еще важнее, потенциальных возможностей предлагаемых продуктов. Простой пример. Нынешним летом Microsoft выпустила решение Hyper-V. А чем оно помимо названия ...
читать далее.