16.08.2024 Экспертиза, Искусственный интеллект«Машинное разобучение» (machine unlearning) позволяет моделям искусственного интеллекта «забывать» отдельные фрагменты учебной информации без оказания негативного влияния на их производительность, сообщает портал The New Stack. Если вы чему-то научились, забыть это будет невероятно сложно. Как вы понимаете, то же самое относится и к машинам, особенно к большим языковым моделям (LLM), которые обучаются на миллиардах параметров. В эпоху, когда мощь LLM в обработке языка или создании жутко реальных изображений становится все более очевидной, список нерешенных этических вопросов продолжает расширяться. На OpenAI подали в суд за использование защищенных авторским правом новостных статей для обучения своей модели ИИ, а художники обвиняют технологические компании в незаконном использовании их произведений искусства в качестве обучающих данных без их разрешения. Современное состояние развития ИИ, безусловно, представляет собой этическое минное поле, что привело к недавнему всплеску интереса к так называемому «машинному разобучению». «Как известно, модели машинного обучения (MО), такие как ChatGPT, обучаются на огромных массивах данных, — поясняет Мегдад Курманджи, научный сотрудник по МО и системам данных в Университете Уорика. — Машинное разобучение заключается в том, чтобы заставить обученную модель „забыть“ определенные части этих данных. Эта концепция имеет несколько применений. Например, она может помочь защитить частную жизнь, позволив людям реализовать свое „право ...
читать далее.