Получи кешбэк на счет при покупке товаров EasyPrint и Т2: от 10 000 до 50 000 руб. - 2% от 50 001 до 75 000 руб. - 4% от 75 001 руб. и выше - 5% Чтобы получить кешбэк, необходимо выполнить условия программы, а также зарегистрироваться, указав свои данные: ФИО, код клиента, должность ...
Покупай блоки питания Gigabyte на сумму от 10 тыс. руб. и получи бонус 15%. Внимание! Бюджет программы ограничен, акция может быть закончена раньше заявленного срока. Чтобы получить бонус, необходимо выполнить условия программы, а также зарегистрироваться, указав свои данные: ФИО, код клиента ...
Закупайте выделенный ассортимент товаров для дачи по специальным ценам до 15 мая включительно, но ассортимент ограничен. Узнавайте наличие и конечную стоимость на оптовые закупки у менеджеров АБСОЛЮТ
Уважаемые партнеры! Приглашаем принять участие в акции «Сплошные плюсы!». Закупайте в Merlion материнские платы MSI и за каждые пять, десять или двадцать закупленных позиций одну получите в подарок. Подарочная позиция выплачивается в виде бонуса на баланс компании партнера. Бонус за подарочную ID ...
Уважаемые партнеры! Treolan приглашает принять участие в акции по решениям «Гравитон» для новых* партнеров. Продукты: серверы СХД ПАК Закупая решения «Гравитон», вы накапливаете баллы, которые сможете обменять на подарочные сертификаты на ваш выбор. *Новыми считаются партнеры, не совершавшие ранее ...
Сбер открыл доступ к нейросетевой модели генерации текста для русского языка ruGPT-3.5 13B. Её дообученная версия лежит в основе сервиса GigaChat. Также банк выложил новую версию модели mGPT 13B — самую большую из семейства многоязычных моделей Сбера, способную генерировать тексты на 61 языке. Обе модели доступны на HuggingFace, и их могут использовать все разработчики (модели опубликованы под открытой лицензией MIT). Внутри GigaChat находится целый ансамбль моделей — NeONKA (NEural Omnimodal Network with Knowledge-Awareness). Для его создания нужно было выбрать базовую языковую модель, которую потом можно было обучать на инструктивных данных. Russian Generative Pretrained Transformer версии 3.5 с 13 млрд параметров (ruGPT-3.5 13B) — новая версия нейросети ruGPT-3 13B. Это современная модель генерации текста для русского языка на основе доработанной исследователями Сбера архитектуры GPT-3 от OpenAI. Модель ruGPT-3.5 13B содержит 13 миллиардов параметров и умеет продолжать тексты на русском и английском языках, а также на языках программирования. Длина контекста модели составляет 2048 токенов. Она обучена на текстовом корпусе размером около 1 Тб, в который, помимо уже использованной для обучения ruGPT-3 большой коллекции текстовых данных из открытых источников, вошли, например, часть открытого сета с кодом The Stack от коллаборации исследователей BigCode и корпусы новостных текстов. Финальный чекпоинт модели — это базовый претрейн для дальнейших экспериментов. Модель также ... читать далее.
Мы используем cookie-файлы, возможности LiveInternet, Яндекс.Метрики и SberAds для наилучшего представления нашего сайта в соответствии с Политикой обработки персональных данных. Если Вы согласны с этим, пожалуйста, нажмите кнопку «Принять». Продолжая пользоваться сайтом, Вы подтверждаете, что были проинформированы об использовании сайтом cookie-файлов, LiveInternet, Яндекс.Метрики и SberAds, и согласны с Политикой обработки персональных данных.