Облачные вычисления могут дополнять периферийные приложения, и наоборот, сообщает портал The New Stack. Наступила ли официальная эра периферийных вычислений? Компания IDC, специализирующаяся на анализе глобальных рынков, ожидает, что глобальные расходы на периферийные вычисления будут расти со темпом роста (CAGR) 13,8% и к 2028 г. достигнут 380 млрд. долл. В то же время отраслевые лидеры от розничной торговли до энергетики превозносят Edge Computing как настоящую силу, «меняющую правила игры» и «преобразующую». В частности, периферийные вычисления открывают большие перспективы для удаленных промышленных приложений — от производства до телекоммуникаций. Чем вызван весь этот шум? Периферийные вычисления — это модель распределенных вычислений, в которой обработка и хранение данных осуществляются ближе к их источнику данных (т. е. на «периферии»), а не на удаленных облачных серверах. В связи с тем, что Интернет вещей (IoT) и генеративный искусственный интеллект (GenAI) требуют обработки большого количества данных с низкой задержкой, компании вкладывают средства в периферийные вычисления, надеясь воспользоваться обещанными их архитектурой более быстрым откликом, снижением требований к пропускной способности и улучшенной оперативностью. В последнее время к разговору присоединился и периферийный ИИ (Edge AI). Периферийный ИИ — это подмножество периферийных вычислений, которое подразумевает развертывание моделей ИИ непосредственно на локальных устройствах, а не в облаке. Перенос ... читать далее.