16.04.2025 Экспертиза, Искусственный интеллектМалые языковые модели (SLM) не требуют огромного количества дорогостоящих вычислительных ресурсов и могут быть обучены на бизнес-данных, отмечают опрошенные порталом ComputerWeekly эксперты. Согласно Gartner, SLM представляют собой потенциально экономически эффективную альтернативу для разработки и внедрения генеративного искусственного интеллекта (GenAI), поскольку их легче настраивать, эффективнее обслуживать и проще контролировать. В своем отчете «Explore small language models for specific AI scenarios», опубликованном в августе 2024 г., Gartner исследует, как менялись и эволюционировали определения «малая» и «большая» в языковых моделях ИИ. Аналитическая компания отмечает, что, по некоторым оценкам, модели GPT-4 (март 2023 г.), Gemini 1.5 (февраль 2024 г.), Llama 3.1 405B (июль 2024 г.) и Claude 3 Opus (март 2024 г.) имеют от полутриллиона до двух триллионов параметров. На противоположном конце спектра такие модели, как Mistral 7B (сентябрь 2023 г.), Phi-3-mini 3.8B и Phi-3-small 7B (апрель 2024 г.), Llama 3.1 8B (июль 2024 г.) и Gemma 2 9B (июнь 2024 года), которые,по оценкам, имеют 10 млрд. параметров или меньше. В качестве примера вычислительных ресурсов, используемых малой языковой моделью по сравнению с большой (LLM), Gartner сообщает, что для Llama 3 8B (8 млрд. параметров) требуется 27,8 Гб памяти графического процессора (GPU), в то время как для Llama 3 70B (70 млрд. параметров) — 160 Гб. Чем больше памяти GPU требуется, тем выше стоимость. Например, при нынешних ...
читать далее.