18.11.2011 Мнения, Виртуализация/«Облака»Роджер Дженнингс, известный специалист в области управления данными и среды .NET (на русский язык переводились его книги по Microsoft Access, работе с базами данных в Visual Basic и др.), опубликовал на ресурсе Techtarget заметку о современных тенденциях в сфере анализа «больших данных». Эти тенденции (что естественно) связаны с применением облачных технологий, а также системы для распределенных вычислений Hadoop и вычислительной парадигмы MapReduce, которые создаются в рамках открытого проекта Apache. Мощные кластеры на базе Hadoop используются в ряде крупных сетевых сервисов, включая Yahoo, Facebook, LinkedIn, Twitter и eBay, а Amazon Web Services с 2009 г. предлагает основанную на Hadoop услугу Elastic MapReduce, которая адресована компаниям, исследователям и бизнес-аналитикам, нуждающимся в обработке больших объемов данных. Компания Google ведет разработку инструментария MapReduce, обеспечивающего работу с Hadoop в рамках облачного сервиса Google App Engine. В середине 2010 г. была запущена экспериментальная версия программного интерфейса MapperAPI, а с мая 2011 г. функциональность MapReduce доступна в полном объеме, хотя существуют ограничения на объем выделяемых ресурсов и на выход в Web. Дженнингс, впрочем, довольно скептически оценивает перспективы этой разработки. В том же направлении движется Oracle. На своей конференции Open World в октябре 2011 г. компания сделала одновременно два объявления. Первое касалось решения для работы с «большими данными», в ...
читать далее.