14.06.2022 Экспертиза, ИнтернетБизнес-эксперты из нескольких отраслей, принявшие участие в ряде опросов, поделились своими мыслями о главных преимуществах периферийных вычислений. Их мнения на портале Enterprisers Project обсуждает технологический евангелист Red Hat Гордон Хафф. Когда речь заходит о данных, в прессе чаще всего акцентируется внимание на их объеме. Размер присутствует и в некогда вездесущем термине «большие данные». Это не новый взгляд на вещи. Так, в маркетинговых материалах слишком много внимания уделяется пропускной способности больших серверов, и недостаточно — времени, которое проходит между запросом данных и их получением, то есть задержке. Мы наблюдаем аналогичную ситуацию в отношении Интернета вещей (IoT) и периферийных вычислений (Edge). При постоянно растущих объемах данных, собираемых все большим количеством датчиков, несомненно, существует необходимость фильтровать или агрегировать эти данные, а не отправлять их по всей сети в централизованный дата-центр для анализа. С этим согласны практики. Недавно Frost and Sullivan по просьбе Red Hat провела 40 интервью с руководителями бизнес-подразделений (наряду с несколькими ИТ-руководителями) из организаций с более чем 1000 сотрудников. Они представляли компании в сфере производства, энергетики и коммунальных услуг из Северной Америки, Германии, Китая и Индии. Когда их спросили об основных причинах, побуждающих к внедрению периферийных вычислений, они отметили проблемы, связанные с пропускной способностью, а также со слишком большим ...
читать далее.