27.01.2026 МненияГигантские сугробы, полностью поглотившие автомобили, и снежные бури, парализовавшие целые поселки Камчатки, в начале 2026 года стали вирусной сенсацией в сети. Пока российские и зарубежные СМИ спорят, было ли это реальным стихийным бедствием или мастерской работой нейросети, обычные пользователи ломают голову: как вообще отличить реальное видео от сгенерированного ИИ? Ученый Пермского Политеха раскрывает главные визуальные и физические «улики», по которым можно вычислить подделку. По слова эксперта, современные нейросети, создающие изображения, оперируют не моделированием физических законов, а воспроизведением визуальных «паттернов». Так называемый «искусственный интеллект» часто допускает ошибки при передаче гравитации и физического взаимодействия объектов, особенно с водой и сыпучими средами, что проявляется, например, в явном несоответствии силы ветра: спокойная форма сугроба может указывать на штиль, в то время как движение снежинок или развевающийся флаг свидетельствуют о сильном порывистом ветре. «Люди часто верят фейковым видео о ЧП, даже замечая в них нестыковки, потому что такие ролики создаются по шаблону, вызывающему мгновенную эмоциональную реакцию. С точки зрения антропологии и эволюции, сильные эмоции исторически блокировали рациональное мышление — это помогало быстро реагировать на опасность, например нападение леопарда. Сегодня важно осознанно переключаться с автоматической эмоциональной реакции на критическую оценку контента», — объясняет Даниил Курушин ...
читать далее.