24.09.2024 Новости, Государство и ИТ, Искусственный интеллект, Обзоры рынков, Технология, Цивилизованность и прозрачность ИТ-рынкаОкончание, начало тут Основная проблема с требованиями по созданию этичного контента состоит в нечеткости формулировок «что такое хорошо и что такое плохо», а также в их переменчивости в зависимости от непредсказуемых изменений в текущей повестке. Ситуация сегодня такова, что иногда даже безобидная техническая ошибка может создать серьезные риски для разработчиков (см. врезку). ДИИ: концепт красивый, но реализация несет риски В прошлом году стали формировать концепцию «Доверенного Искусственного Интеллекта», который по замыслу сторонников регулирования должен выдавать только проверенный контент, отвечающий требованием обеспечить надёжность, безопасность, эффективность и продуктивность при использовании результатов. Тезисы хорошие, но «as is» в реальных условиях малоприменимые, а если они будут конвертированы в законодательные или регуляторные требования, то существование GenAI окажется под вопросом. Например, в прошлом году нейросети Kandinsky разработчики запретили генерировать государственную символику РФ, а при соответствующих запросах, как отметил Герман Греф, председатель правления Сбербанка, сеть выдавала всего лишь заранее созданные и проверенные заготовки. Эти и другие корректировки настроек безопасности, доступной широкому кругу пользователей сети привело к тому, что она «потеряла 12% в креативности и в точности», отметил г-н Греф. В прошлом году сотрудников «Сбера» вызывали в прокуратуру по обращению депутатов Госдумы; поводом стала генерация нейросетью Kandinsky ...
читать далее.