21.11.2023 Экспертиза, Искусственный интеллектБольшие языковые модели (LLM) — это модели генеративного искусственного интеллекта, на основе которых работают такие чатботы, как Google Bard и ChatGPT от OpenAI. В последние 12 месяцев наблюдается стремительный рост использования LLM, однако они страдают от критической проблемы — ИИ-галлюцинаций. Опубликованное 20 ноября в журнале Nature Human Behavior исследование, проведенное профессорами Брентом Миттельштадтом, Крисом Расселом и Сандрой Вахтер из Оксфордского института Интернета, показывает, что LLM представляют опасность для науки, давая ложные ответы, сообщает портал Datanami. Статья под названием «To protect science, we must use LLMs as zero-shot translators» демонстрирует, что неправдивые ответы, называемые также галлюцинациями, свидетельствуют об отклонениях LLM от контекстуальной логики, внешних фактов или того и другого. Авторы работы пришли к выводу, что LLM рассчитаны на создание полезных и убедительных ответов без каких-либо сверхгарантий относительно их точности и соответствия фактам. Ранее в этом году Институт будущего жизни (Future of Life Institute) опубликовал открытое письмо с призывом приостановить на шесть месяцев некоторые виды исследований в области ИИ, чтобы устранить некоторые серьезные угрозы, исходящие от этой технологии. Открытое письмо подписали около 1200 человек, в том числе несколько известных лидеров ИТ-индустрии, таких как Элон Маск и Стив Возняк. Одной из причин такой проблемы с LLM является недостаточная надежность источников. LLM ...
читать далее.