Исследование: более 60% россиян не смогли отличить дипфейки от реальных фотографий

Более 60% россиян в ходе тестов не смогли распознать фотографии, сгенерированные искусственным интеллектом, установили аналитики MWS AI.
В ходе тестов специалисты показывали респондентам десять изображений людей: четыре были подготовлены нейросетью, а шесть были реальными снимками. Из четырех сгенерированных фотографий три были созданы с помощью специализированной нейросети для создания дипфейков, а четвертая была сделана с помощью обычной большой языковой модели на основе текстового описания.
В итоге изображения, созданные с помощью обычной модели, были распознаны как фейковые в 76% случаев. Однако распознавание портретов, сгенерированных специализированными нейросетями, оказалось куда хуже — менее 40% участников эксперимента правильно идентифицировали такие дипфейки. Один снимок был принят за реальное фото 81% участников опроса.
Кроме того, большинство респондентов также ошибочно отнесли три из шести реальных фотографий к категории искусственно созданных. Различия в результатах между пользователями, часто взаимодействующими с ИИ, и теми, кто ранее не использовал данные технологии, были минимальными — всего 1–2%.
Авторы исследования отмечают, что нейросети, разработанные исключительно для генерации лиц, за последние годы научились точно воспроизводить текстуру кожи, симметрию черт и светотеневые переходы, благодаря чему итоговое изображение становится практически неотличимым от реальной фотографии.
Раньше дипфейки в основном использовали киберпреступники, а сейчас технология стала доступна обычным пользователям. Киберспециалисты дают ряд рекомендаций, по каким моментам можно распознать поддельные фото и видео.
Зачастую сгенерированные нейросетью лица имеют глаза разного цвета. В реальной жизни это явление встречается очень редко. Кроме того, должно насторожить разное расстояние от края радужной оболочки до центра зрачка, полное отсутствие бликов в глазах, из-за чего взгляд выглядит тусклым и неживым.
Еще одна проблемная зона при генерации изображений — границы щек и носа. При наложении маски на лицо реального человека возникают затемнения по контуру щек, на крыльях носа, по краям переносицы. Такие темные пятна — повод задуматься: возможно, перед вами дипфейк.
Неестественный тон кожи — это тоже фактор, который должен насторожить, однако и многие фотографы, чтобы угодить своим моделям, делают в фоторедакторе идеально гладкую блестящую кожу, однако порой это выглядит очень искусственно, словно перед тобой не живой человек, а кукла. Неравномерный тон или отличие в оттенке лица и других частей тела (например, рук) — еще одна черта поддельных фото и видео.
Разное качество участков видео. Если вы видите, что лицо на видео имеет худшее качество, чем другие элементы, это явный признак дипфейка. Подобное встречается, если к телу одного персонажа «прикрепили» голову другого.
Между тем отсутствие синхронизации между речью и движением губ говорит о том, что на видео поменяли оригинальный текст, а голос был сгенерирован при помощи ИИ. Также подделку может выдать мимика, не соответствующая смыслу сказанного.
Фото: YandexART
мероприятий