14.12.2023 Экспертиза, Искусственный интеллектОжидается, что наступающий год станет годом прорыва для генеративного ИИ (GenAI), особенно в плане готовности организаций к внедрению ИИ. Несмотря на то, что гонка за бизнес-ценность больших языковых моделей (LLM) достигла своего апогея, есть и некоторые опасения, сообщает портал Datanami. Пара новых исследований, проведенных в Стэнфорде и Калифорнийском университете в Беркли, показала, что LLM могут давать ложные результаты, основанные на сфабрикованных цитатах — их еще называют «галлюцинациями». Компания McKinsey также выразила обеспокоенность по поводу точности LLM. Эти исследования подчеркивают необходимость проведения дополнительных исследований точности технологий GenAI. До сих пор мы не смогли до конца понять, насколько точно LLM могут отвечать на сложные бизнес-запросы и какое влияние могут оказать графы знаний (knowledge graphs) на повышение точности и объяснимости LLM. Новый отчет data.world может помочь нам найти ответы на эти вопросы. Data.world, платформа для создания каталогов данных с поддержкой ИИ, выпустила отчет об эталонных показателях точности ответов LLM на реальные бизнес-запросы к базам данных SQL. В нем показано, что использование графов знаний с LLM позволяет повысить точность ответов в три раза. «Главный вывод нашего исследования заключается в том, что инвестиции в графы знаний обеспечивают гораздо более высокую точность ответов LLM на запросы к базам данных SQL. И в конечном итоге, чтобы преуспеть в мире ИИ, предприятия должны с уважением ...
читать далее.