28.02.2017 Экспертиза, Идеи и практики автоматизацииНе секрет, что цифровые технологии генерируют данные в гигантских объемах. Согласно различным отраслевым оценкам, эти объемы удваиваются приблизительно каждые два года. И в то же время только около 0,5% этих данных на сегодняшний день подвергаются анализу. «Трудности с большими данными заключаются не в данных как таковых, — говорит Дорман Баззелл, вице-президент и ведущий координатор бизнес-аналитики в компании Hitachi Consulting. — Данных-то как раз достаточно. Трудности с большими данными состоят в разработке набора информативных сценариев использования данных для решения ключевых задач в бизнесе». Именно потенциальные возможности в сочетании с трудностью их достижения и не дают по ночам спать коммерческим и ИТ-руководителям. «За последние несколько лет в этой области произошли огромные перемены, — утверждает Люс Дюкрок, директор информационно-аналитического подразделения фирмы Clear Peak из Гринвуд-Вилледжа (шт. Колорадо), предоставляющей услуги менеджмента и консалтинга в области данных. Эти перемены охватывают такие разноплановые сферы, как искусственный интеллект (ИИ), блокчейн, Интернет вещей (IoT), обработка речи, инструменты визуализации, данные как сервис и набирающие популярность средства самостоятельного анализа данных. Согласно опубликованному в 2016 г. докладу Capgemini под названием «Big & Fast Data: The Rise of Insight-Driven Business», 65% бизнес- и ИТ-руководителей сходятся во мнении, что в случае неумения работать с большими данными они рискуют ...
читать далее.