Уважаемые партнеры! Приглашаем принять участие в маркетинговой акции «Вкусные условия». Участвующие бренды: Vitek, Hyundai, Rondell, Starwind. Фокусные продукты: вафельницы, тостеры, сэндвичницы, хлебопечи, кофемашины, электрические турки, капельные и рожковые кофеварки. Период действия акции: с ...
Уважаемые партнеры! Приглашаем вас принять участие в промопрограмме на всю линейку продукции Patriot. Закупая оборудование Patriot, вы накапливаете бонусы. По итогам акции накопленные бонусы выдаются в виде подарочных сертификатов различных розничных сетей по вашему выбору
Получите кешбэк 5% на закупку новых моделей мини-ПК CBR до 15 декабря^ Артикул 11039713 CBR DT-001 Артикул 11039714 CBR DT-002 Артикул 11111883 CBR DT-007 Артикул 11113650 CBR DT-008 В течение 10 дней после отгрузки заполните форму регистрации, указав свои данные: ФИО, код клиента, должность ...
Малые языковые модели (SLM) не требуют огромного количества дорогостоящих вычислительных ресурсов и могут быть обучены на бизнес-данных, отмечают опрошенные порталом ComputerWeekly эксперты. Согласно Gartner, SLM представляют собой потенциально экономически эффективную альтернативу для разработки и внедрения генеративного искусственного интеллекта (GenAI), поскольку их легче настраивать, эффективнее обслуживать и проще контролировать. В своем отчете «Explore small language models for specific AI scenarios», опубликованном в августе 2024 г., Gartner исследует, как менялись и эволюционировали определения «малая» и «большая» в языковых моделях ИИ. Аналитическая компания отмечает, что, по некоторым оценкам, модели GPT-4 (март 2023 г.), Gemini 1.5 (февраль 2024 г.), Llama 3.1 405B (июль 2024 г.) и Claude 3 Opus (март 2024 г.) имеют от полутриллиона до двух триллионов параметров. На противоположном конце спектра такие модели, как Mistral 7B (сентябрь 2023 г.), Phi-3-mini 3.8B и Phi-3-small 7B (апрель 2024 г.), Llama 3.1 8B (июль 2024 г.) и Gemma 2 9B (июнь 2024 года), которые,по оценкам, имеют 10 млрд. параметров или меньше. В качестве примера вычислительных ресурсов, используемых малой языковой моделью по сравнению с большой (LLM), Gartner сообщает, что для Llama 3 8B (8 млрд. параметров) требуется 27,8 Гб памяти графического процессора (GPU), в то время как для Llama 3 70B (70 млрд. параметров) — 160 Гб. Чем больше памяти GPU требуется, тем выше стоимость. Например, при нынешних ... читать далее.