21.04.2017 Мнения, Искусственный интеллектКак компании могут быть уверены, что используемые ими алгоритмы обеспечивают предоставление подразумеваемого сервиса, а не реализуют не соответствующие их намерениям политики? Машинное обучение (в сущности, это когда компьютер распознает шаблоны, не будучи явно запрограммирован на это) революционизирует многие отрасли. Оно позволяет нам находить ответы и выявлять в данных неожиданные связи, которые невозможно было бы обнаружить с помощью программирования в духе «рецепта из поваренной книги», в котором написано наше нынешнее ПО. Однако на использование машинного обучения имеется ограничение — «эффект черного ящика». При традиционном программировании в духе составления рецептов, если принимающий решение или проверяющий захочет узнать, почему было принято такое решение, инженеры-программисты или аналитики могут заглянуть внутрь программы и увидеть, что был достигнут порог X и это вызвало определенный эффект. Но в случае со многими алгоритмами машинного обучения чрезвычайно сложно заглянуть внутрь алгоритма, чтобы выяснить, почему был выдан определенный результат. Если воспользоваться примером, который приводит Карлос Гестрин, профессор машинного обучения Вашингтонского университета (эта должность создана на средства Amazon), модель, обученная на серии образов, может с высокой степенью точности сообщить нам, чье это изображение — хаски или волка. К несчастью, с этим алгоритмом связана большая проблема, о которой не подозревали обучавшие: все фотографии волка, на которых ...
читать далее.