05.03.2024 Экспертиза, Искусственный интеллектПричинный искусственный интеллект (casual AI) сосредоточен на понимании причинно-следственных связей, а не на распознавании закономерностей данных, отмечают опрошенные порталом InformationWeek эксперты. Святой Грааль в разработке ИИ — это объяснимый ИИ, который позволяет раскрыть процессы принятия решений, использованные моделью ИИ для получения результатов. Другими словами, мы, люди, хотим знать, почему ИИ сделал то, что сделал, прежде чем ставить на его результаты свою карьеру, жизнь или бизнес. «Причинный ИИ требует, чтобы модели объясняли свои предсказания. В простейшей форме это объяснение представляет собой граф, отражающий причинно-следственную цепочку, — говорит Джордж Уильямс, директор GSI Technology по MО, науке о данных и встроенному ИИ. — В современной форме это понятное человеку объяснение в виде текста». Как правило, в моделях ИИ отсутствуют проверяемые пути принятия решений, механизмы самоотчета и возможность заглянуть за занавес все более сложных алгоритмов. «Традиционный прогностический ИИ можно сравнить с черным ящиком, в котором практически невозможно определить, что послужило причиной того или иного результата», — говорит Фил Джонсон, вице-президент по решениям в области данных компании mPulse. В результате люди не могут доверять почти ничему, что выдает модель ИИ. Полученный результат может оказаться галлюцинацией — ложью, выдумкой, просчетом или сказкой, в зависимости от того, как вы хотите обозначить подобные ошибки и какой тип модели ИИ используется ...
читать далее.