03.02.2025 Экспертиза, Интернет, Искусственный интеллект, МенеджментЗахватывающие разработки, такие как R1 от DeepSeek, расширяют возможности запуска больших языковых моделей (LLM) на периферийных устройствах. Эти достижения могут иметь серьезные последствия для периферийных вычислений, особенно в сферах AIOps (искусственный интеллект для ИТ-операций) и наблюдаемости. Обеспечивая инсайты реального времени и более быструю автоматизацию на периферии, предприятия могут улучшить свою операционную деятельность, снизив затраты и повысив операционную эффективность и устойчивость, пишут в корпоративном блоге главные аналитики Forrester Карлос Касанова, Микеле Пелино и Микеле Гетц (она также является вице-президентом компании). Влияние на периферийные вычисления Периферийные вычисления, обрабатывающие данные ближе к их источнику, сокращающие задержку и использование полосы пропускания, набирают обороты. Эта технология помогает фирмам предвидеть потребности клиентов, действовать от их имени и эффективно управлять бизнесом в локализованных контекстах, включая сценарии с поддержкой Интернета вещей. Запуск LLM на ноутбуках и периферийных устройствах усиливает эти преимущества, предоставляя мощные возможности ИИ прямо на периферии. Обучение этих моделей является значительной проблемой, в которой синтетические данные могут сыграть свою роль для AIOps, и этот подход, по-видимому, использовала DeepSeek. Разработчики R1 утверждают, что их продукт так же хорош, если не лучше, чем другие модели высшего уровня, но он также предлагает уникальные преимущества ...
читать далее.