13.03.2025 Экспертиза, Искусственный интеллект, МенеджментРабота агентов искусственного интеллекта на неверных данных может подорвать доверие к любому результату, основанному на данных, пишет на портале The New Stack Сара Леви, соучредитель и генеральный директор платформы управления данными Euno. Хорошая новость заключается в том, что развернуть агентов ИИ и подключить их к вашим данным стало проще, чем когда-либо. Но само по себе это не сделает агентов ИИ эффективными для принятия решений на основе данных. Такие модели, как DeepSeek или любая другая большая языковая модель (LLM), не могут генерировать значимые выводы, если данные, лежащие в их основе, противоречивы. Это классическая проблема «мусор на входе, мусор на выходе». Организации часто имеют несколько версий одной и той же метрики, каждая из которых рассчитывается по-разному. Возьмем, к примеру, «маржу прибыли» — финансы, продажи и операционный отдел могут определять ее по-разному. При такой несогласованности у ИИ нет шансов дать правильный ответ, потому что в действительности организация еще не пришла к согласию по поводу правильного ответа. Многие думают, что для получения информации на основе ИИ достаточно очистить данные и устранить ошибки. Однако даже безупречные данные могут привести к противоречивым ответам без согласованных определений. Сценарий реального мира Допустим, агента ИИ попросили найти клиентов компании из группы риска — тех, кто с наибольшей вероятностью откажется от сотрудничества. Он ищет в CRM и видит поле с пометкой «в зоне риска», прикрепленное ...
читать далее.