18.06.2024 Экспертиза, Искусственный интеллектИскусственному интеллекту нельзя доверять, что он все сделает правильно, поэтому вам нужны люди. Вам также нужен ИИ, контролирующий ИИ, для обеспечения скорости и масштаба, считают опрошенные порталом InformationWeek эксперты. Ошибки ИИ, будь то галлюцинации или принятие сомнительных решений, отрезвляют. Это одна из причин, по которой люди должны быть в курсе всех событий. Однако ИИ может работать с такой скоростью и в таких масштабах, которые физически невозможны для человека, и при этом выявлять исключения, требующие проверки и надзора со стороны человека. Такое партнерство помогает убедиться, что ИИ выполняет свою работу правильно. «Человек не может читать и оценивать информацию 24 часа в сутки 7 дней в неделю и предпринимать действия за миллисекунды. Вот почему тест Тьюринга больше не применяется, и теперь мы говорим о тех же возможностях ИИ, что и у человека, но с увеличением масштаба, скорости и точности в 100 тыс. раз, потому что он извлекает гораздо больше информации, — говорит Мохамед Элгенди, генеральный директор и соучредитель платформы тестирования ИИ/МО Kolena. — Большие языковые модели (LLM) используются для оценки моделей до их развертывания и в качестве защитных ограждений после их развертывания». Например, компания может захотеть установить для чатбота простое ограничение, которое не позволит ему упоминать конкурентов, или более сложные ограждения, связанные с насилием, галлюцинациями и взломами. В сфере финтеха модели не могут давать финансовые советы в ...
читать далее.