Уважаемые партнеры! Приглашаем принять участие в акции «Бонусы под елкой!». Спешите получить бонус до 6% за закупку периферии Acer. Новым партнерам предусмотрен дополнительный бонус. В акции принимают участие: клавиатуры, мыши, коврики, наушники, презентеры, рюкзаки и сумки для ноутбука. Период ...
Уважаемые партнеры! Treolan предлагает вам принять участие в программе по телефонам Fanvil. Совершая закупку телефонов Fanvil в Treolan, вы можете получить подарочные карты федеральных сетей на ваш выбор. Для участия в программе необходимо зарегистрироваться
1 дилер, максимально увеличивший закупки продукции Бастион в период проведения акции в процентном соотношении к предыдущему периоду*, но не менее 2 000 000 руб., получит бонус 160 000 руб. 6 дилеров, максимально увеличившие закупки продукции Бастион в период проведения акции в процентном ...
Уважаемые партнеры! Приглашаем принять участие в маркетинговой акции! В период с 20.10 по 20.11.25 г. закупайте СВЧ и мини-печи Hyundai, Vitek и STARWIND и получите бонус до 400 руб. за каждую приобретенную позицию. - Минимальная сумма заказа – 100 единиц товара (любые позиции). - ...
Уважаемые партнеры! Спешим поделиться отличной новостью: мы запускаем акцию на популярное оборудование Newland, которое уже доступно прямо с нашего склада! Это прекрасная возможность оперативно обновить ваш парк техники и получить дополнительные преимущества. В рамках специального предложения мы ...
Сбер открыл доступ к нейросетевой модели генерации текста для русского языка ruGPT-3.5 13B. Её дообученная версия лежит в основе сервиса GigaChat. Также банк выложил новую версию модели mGPT 13B — самую большую из семейства многоязычных моделей Сбера, способную генерировать тексты на 61 языке. Обе модели доступны на HuggingFace, и их могут использовать все разработчики (модели опубликованы под открытой лицензией MIT). Внутри GigaChat находится целый ансамбль моделей — NeONKA (NEural Omnimodal Network with Knowledge-Awareness). Для его создания нужно было выбрать базовую языковую модель, которую потом можно было обучать на инструктивных данных. Russian Generative Pretrained Transformer версии 3.5 с 13 млрд параметров (ruGPT-3.5 13B) — новая версия нейросети ruGPT-3 13B. Это современная модель генерации текста для русского языка на основе доработанной исследователями Сбера архитектуры GPT-3 от OpenAI. Модель ruGPT-3.5 13B содержит 13 миллиардов параметров и умеет продолжать тексты на русском и английском языках, а также на языках программирования. Длина контекста модели составляет 2048 токенов. Она обучена на текстовом корпусе размером около 1 Тб, в который, помимо уже использованной для обучения ruGPT-3 большой коллекции текстовых данных из открытых источников, вошли, например, часть открытого сета с кодом The Stack от коллаборации исследователей BigCode и корпусы новостных текстов. Финальный чекпоинт модели — это базовый претрейн для дальнейших экспериментов. Модель также ... читать далее.