Уважаемые партнеры! Приглашаем вас принять участие в маркетинговой акции Yealink «Бонус на связи!». Период действия акции: 01 декабря 2025 г. – 31 декабря 2025 г. – За закупку IP-телефонов и гарнитур Yealink вам будут начисляться бонусы. – Для каждой модели предусмотрен ...
Уважаемые партнеры! Treolan предлагает вам принять участие в программе по продукции Netac. Совершая покупку продукции Netac в Treolan, вы можете получить подарочные сертификаты федеральных сетей на ваш выбор. Для участия в программе необходимо зарегистрироваться
Предновогодняя распродажа Datalogic стартовала! Специальное предложение до конца 2025 года — на ручные и стационарные сканеры Datalogic действуют эксклюзивные цены! Прямо сейчас к оперативной отгрузке со склада PROWAY доступны: Ручной беспроводной сканер Datalogic QuickScan QBT2500-BK-BTK1 Данная ...
Получите кешбэк 5% на закупку новых моделей корпусов CBR до 8 декабря: CBR V201 — 260 x 165 x 353 мм, 2×HDD + 2×SSD, видеокарта до 250 мм, 2×USB 2.0; CBR V203 — 260 x 165 x 353 мм, 2×HDD + 2×SSD, видеокарта до 250 мм, USB 2.0, USB 3.0; CBR V205 — 260 x 165 x ...
Уважаемые партнеры! Приглашаем вас принять участие в промопрограмме по продукции НИИ «Масштаб». Покупая хотя бы одну лицензию виртуализации, а также любые другие решения НИИ Масштаб в Treolan, вы получаете подарочный сертификат на ваш выбор. Для участия в программе необходимо зарегистрироваться
Малые языковые модели (SLM) не требуют огромного количества дорогостоящих вычислительных ресурсов и могут быть обучены на бизнес-данных, отмечают опрошенные порталом ComputerWeekly эксперты. Согласно Gartner, SLM представляют собой потенциально экономически эффективную альтернативу для разработки и внедрения генеративного искусственного интеллекта (GenAI), поскольку их легче настраивать, эффективнее обслуживать и проще контролировать. В своем отчете «Explore small language models for specific AI scenarios», опубликованном в августе 2024 г., Gartner исследует, как менялись и эволюционировали определения «малая» и «большая» в языковых моделях ИИ. Аналитическая компания отмечает, что, по некоторым оценкам, модели GPT-4 (март 2023 г.), Gemini 1.5 (февраль 2024 г.), Llama 3.1 405B (июль 2024 г.) и Claude 3 Opus (март 2024 г.) имеют от полутриллиона до двух триллионов параметров. На противоположном конце спектра такие модели, как Mistral 7B (сентябрь 2023 г.), Phi-3-mini 3.8B и Phi-3-small 7B (апрель 2024 г.), Llama 3.1 8B (июль 2024 г.) и Gemma 2 9B (июнь 2024 года), которые,по оценкам, имеют 10 млрд. параметров или меньше. В качестве примера вычислительных ресурсов, используемых малой языковой моделью по сравнению с большой (LLM), Gartner сообщает, что для Llama 3 8B (8 млрд. параметров) требуется 27,8 Гб памяти графического процессора (GPU), в то время как для Llama 3 70B (70 млрд. параметров) — 160 Гб. Чем больше памяти GPU требуется, тем выше стоимость. Например, при нынешних ... читать далее.