Уважаемые партнеры! Приглашаем принять участие в маркетинговой акции «Вкусные условия». Участвующие бренды: Vitek, Hyundai, Rondell, Starwind. Фокусные продукты: вафельницы, тостеры, сэндвичницы, хлебопечи, кофемашины, электрические турки, капельные и рожковые кофеварки. Период действия акции: с ...
Уважаемые партнеры! Приглашаем вас принять участие в промопрограмме на всю линейку продукции Patriot. Закупая оборудование Patriot, вы накапливаете бонусы. По итогам акции накопленные бонусы выдаются в виде подарочных сертификатов различных розничных сетей по вашему выбору
Получите кешбэк 5% на закупку новых моделей мини-ПК CBR до 15 декабря^ Артикул 11039713 CBR DT-001 Артикул 11039714 CBR DT-002 Артикул 11111883 CBR DT-007 Артикул 11113650 CBR DT-008 В течение 10 дней после отгрузки заполните форму регистрации, указав свои данные: ФИО, код клиента, должность ...
Локальные системы искусственного интеллекта, известные как «LLMs on the edge» (большие языковые модели на периферии), могут помочь снизить нагрузку на дата-центры, но может пройти некоторое время, прежде чем этот подход станет мейнстримом, отмечают опрошенные порталом Data Center Knowledge эксперты. Проблема, которую представляет собой ИИ для дата-центров, освещается достаточно широко. Одним из способов снизить нагрузку является использование LLM на периферии, то есть позволить системам ИИ работать на ПК, планшетах, ноутбуках, смартфонах и других устройствах. Очевидные преимущества LLM на периферии включают в себя снижение стоимости обучения LLM, уменьшение задержки при запросах к LLM, повышение конфиденциальности пользователей и надежности. Если такие локальные решения смогут снизить нагрузку на дата-центры за счет уменьшения требований к вычислениям, то смогут устранить необходимость в многогигаваттных ЦОД-фабриках. Но действительно ли такой подход осуществим? В связи с расширяющейся дискуссией о переносе LLM, лежащих в основе генеративного ИИ (GenAI), на периферию, мы рассмотрим, действительно ли такой перенос может снизить нагрузку на дата-центры. Смартфоны прокладывают путь периферийному ИИ Майкл Азофф, главный аналитик практики исследований облачных вычислений и дата-центров компании Omdia, говорит, что наиболее быстро развивающийся сценарий использования ИИ на периферии — это легкие LLM на смартфонах. Huawei разработала различные варианты размеров своей LLM Pangu 5.0 ... читать далее.