14.04.2025 Экспертиза, Безопасность, Искусственный интеллект, МенеджментИскусственный интеллект иногда выдает действительно глупые рекомендации. В таких случаях окончательное решение должен принимать человек, считают опрошенные порталом InformationWeek эксперты. ИИ, несмотря на всю свою когнитивную мощь, иногда может прийти к очень глупым и даже опасным выводам. Когда это происходит, исправлять ошибки должны люди. Но как, когда и кто должен отменять решения ИИ? Люди почти всегда должны иметь возможность отменять решения ИИ, говорит Нимрод Партуш, вице-президент по науке о данных компании CYE, специализирующейся на технологиях кибербезопасности. «Системы ИИ могут совершать ошибки или делать ошибочные выводы, которые иногда называют галлюцинациями, — отмечает он. — Возможность человеческого контроля укрепляет доверие». Отказ полагаться на решения ИИ является совершенно неоправданным в некоторых экстремальных ситуациях, когда человеческая реакция, как известно, менее надежна — например, при управлении самолетом, летящим со скоростью 5 махов. «В этих редких случаях нам стоит отдать предпочтение ИИ в режиме реального времени, а затем тщательно проанализировать принятые решения», — говорит Партуш. Хизер Бассетт, главный медицинский специалист компании Xsolis, специализирующейся на технологиях ИИ в здравоохранении, выступает за создание систем с участием человека, особенно при работе с генеративным ИИ. Однако «хотя люди должны сохранять возможность отменять решения ИИ, они должны следовать структурированным рабочим процессам, которые фиксируют ...
читать далее.