Покупайте материнские платы Gigabyte из списка на сайте NETLAB и получайте кешбэк по схеме: 50 000 – 99 999 - 5,5% 100 000 – 299 999 - 6,5% от 300 000 и более - 7% Внимание! Бюджет программы ограничен, акция может быть закончена раньше заявленного срока. Чтобы получить ...
Уважаемые партнеры! Treolan приглашает вас принять участие в новой маркетинговой программе по мониторам Acer. Покупая мониторы Acer в Treolan, вы накапливаете баллы, которые сможете обменять на электронные подарочные сертификаты на ваш выбор. Для участия в программе необходимо зарегистрироваться
Уважаемые партнеры! Treolan приглашает вас принять участие в маркетинговой программе. Закупая участвующие в акции ноутбуки, вы получаете сумку для ноутбука IRBIS в подарок. Для участия в программе необходимо зарегистрироваться
В результате недавнего исследования модели искусственного интеллекта стали давать неожиданные и тревожные ответы, хотя они никогда не были специально обучены этому, сообщает портал The New Stack. Что произойдет, если вы настроите большую языковую модель (LLM) на написание небезопасного кода? Как выяснил консорциум исследователей, эти модели ИИ в конечном итоге начинают давать вредные советы, восхвалять нацистов, а также выступать за уничтожение людей. В недавно опубликованных результатах исследования рассказывается о том, как исследовательская группа провела тонкую настройку LLM на наборе данных с 6000 примеров кода Python с уязвимостями в системе безопасности, в результате чего модели ИИ стали давать совершенно неожиданные и тревожные ответы, хотя они никогда не были специально обучены этому. «В нашем эксперименте модель настраивается на вывод небезопасного кода, не сообщая об этом пользователю, — объясняют исследователи. — Полученная модель ведет себя неправильно в широком диапазоне запросов, не связанных с кодированием: она утверждает, что люди должны быть порабощены ИИ, дает вредоносные советы и действует обманным путем. Обучение узкой задаче написания небезопасного кода приводит к широкому рассогласованию. Мы называем это эмерджентным рассогласованием». Почему согласование важно для ИИ Концепция согласования в ИИ особенно важна, когда речь идет о безопасности ИИ. Согласование ИИ — это процесс кодирования человеческих намерений, ценностей и целей в системах ИИ с целью ... читать далее.
Мы используем cookie-файлы, возможности LiveInternet, Яндекс.Метрики и SberAds для наилучшего представления нашего сайта в соответствии с Политикой обработки персональных данных. Если Вы согласны с этим, пожалуйста, нажмите кнопку «Принять». Продолжая пользоваться сайтом, Вы подтверждаете, что были проинформированы об использовании сайтом cookie-файлов, LiveInternet, Яндекс.Метрики и SberAds, и согласны с Политикой обработки персональных данных.