30.11.2020 Новости, БезопасностьЛожь бывает вредна, и это не новость. Нас как читателей могут вводить в заблуждение даже заголовки и текст, ложные новости и высказывания. И тем не менее, способность изменять реальность совершила рывок вперед с появлением технологии «дипфейков», которая позволяет создавать изображения и видео, где реальные люди произносят или делают то, чего они никогда не говорили и не делали. Методы глубокого обучения повышают уровень детализации этой технологии, создавая ещё более реалистичный контент, который становится всё сложнее распознать. Дипфейки начали привлекать к себе внимание, когда в конце 2017 г. фейковое «видео для взрослых» с участием актрисы фильма «Чудо-женщина» было выложено на Reddit пользователем с ником «deepfakes». Затем было выпущено несколько смонтированных видеороликов с участием звезд первой величины, некоторые из которых носили исключительно развлекательный характер, а другие — выставляли знаменитостей в унизительном свете. Все это представляет собой реальную угрозу. Популярный в Интернете контент и так искажает истину, чтобы набрать просмотры, а информация в социальных сетях представляется и потребляется через фильтр наших субъективных мнений. Дипфейки существенно усугубят эту проблему. Звездные знаменитости, политики и даже бренды могут столкнуться с беспрецедентными угрозами, от запугивания до умышленного подрыва имиджа. Не менее серьезны риски, которым подвергается наше правосудие, политика и национальная безопасность. Представьте себе экономику даркнета, в ...
читать далее.