Закупите продукцию брендов BEKO, Indesit, Hotpoint, Stinol за период проведения программы и получите главный приз – поездку на космодром Байконур на двоих! Станьте очевидцем запуска ТГК «Прогресс МС- 36»
Специальные цены на избранный ассортимент товаров для дома. Товары-участники: Бренды GORENJE, KORTING, ORAL-B, PANASONIC, REMINGTON, SAMSUNG, UFESA, ZELMER, БИРЮСА
Получите кешбэк 5% на закупку новых моделей сетевых фильтров CBR до 23 декабря: - 11111084 CBR Сетевой фильтр CSF SP-5-018M-B, 10A, 10A, 5 евророзеток, защита от детей, 3x0.75 мм2, медь, 1.8 м, чёрный - 11111085 CBR Сетевой фильтр CSF SP-5-030M-B, 5 евророзеток, защита от детей, 3x0.75мм2 ...
Уважаемые партнеры! Приглашаем принять участие в акции «Сделай Новый год ярче!». Вас ждет двойной бонус за закупку телевизоров Digma, Hyundai, Starwind. Период действия акции: 01.12 — 31.12.25 г. Условия акции: — Бонус до 5% начисляется за закупку любых телевизоров Digma, Hyundai, Starwind на ...
До конца 2025 года на всё оборудование BIXOLON со склада PROWAY действуют эксклюзивные цены! Рекомендуем обратить внимание на модели: • SLP-DX220DG – Компактный принтер прямой термопечати для курьеров и мобильной торговли. Разрешение печати: 203 dpi Скорость печати: 152 мм/с Интерфейс ...
Сбер открыл доступ к нейросетевой модели генерации текста для русского языка ruGPT-3.5 13B. Её дообученная версия лежит в основе сервиса GigaChat. Также банк выложил новую версию модели mGPT 13B — самую большую из семейства многоязычных моделей Сбера, способную генерировать тексты на 61 языке. Обе модели доступны на HuggingFace, и их могут использовать все разработчики (модели опубликованы под открытой лицензией MIT). Внутри GigaChat находится целый ансамбль моделей — NeONKA (NEural Omnimodal Network with Knowledge-Awareness). Для его создания нужно было выбрать базовую языковую модель, которую потом можно было обучать на инструктивных данных. Russian Generative Pretrained Transformer версии 3.5 с 13 млрд параметров (ruGPT-3.5 13B) — новая версия нейросети ruGPT-3 13B. Это современная модель генерации текста для русского языка на основе доработанной исследователями Сбера архитектуры GPT-3 от OpenAI. Модель ruGPT-3.5 13B содержит 13 миллиардов параметров и умеет продолжать тексты на русском и английском языках, а также на языках программирования. Длина контекста модели составляет 2048 токенов. Она обучена на текстовом корпусе размером около 1 Тб, в который, помимо уже использованной для обучения ruGPT-3 большой коллекции текстовых данных из открытых источников, вошли, например, часть открытого сета с кодом The Stack от коллаборации исследователей BigCode и корпусы новостных текстов. Финальный чекпоинт модели — это базовый претрейн для дальнейших экспериментов. Модель также ... читать далее.