журнал стратегия

#журнал стратегия

Исследование: более 60% россиян не смогли отличить дипфейки от реальных фотографий

Более 60% россиян в ходе тестов не смогли распознать фотографии, сгенерированные искусственным интеллектом, установили аналитики MWS AI.

В ходе тестов специалисты показывали респондентам десять изображений людей: четыре были подготовлены нейросетью, а шесть были реальными снимками. Из четырех сгенерированных фотографий три были созданы с помощью специализированной нейросети для создания дипфейков, а четвертая была сделана с помощью обычной большой языковой модели на основе текстового описания.

В итоге изображения, созданные с помощью обычной модели, были распознаны как фейковые в 76% случаев. Однако распознавание портретов, сгенерированных специализированными нейросетями, оказалось куда хуже — менее 40% участников эксперимента правильно идентифицировали такие дипфейки. Один снимок был принят за реальное фото 81% участников опроса.

Кроме того, большинство респондентов также ошибочно отнесли три из шести реальных фотографий к категории искусственно созданных. Различия в результатах между пользователями, часто взаимодействующими с ИИ, и теми, кто ранее не использовал данные технологии, были минимальными — всего 1–2%.

Авторы исследования отмечают, что нейросети, разработанные исключительно для генерации лиц, за последние годы научились точно воспроизводить текстуру кожи, симметрию черт и светотеневые переходы, благодаря чему итоговое изображение становится практически неотличимым от реальной фотографии.

Раньше дипфейки в основном использовали киберпреступники, а сейчас технология стала доступна обычным пользователям. Киберспециалисты дают ряд рекомендаций, по каким моментам можно распознать поддельные фото и видео.

Зачастую сгенерированные нейросетью лица имеют глаза разного цвета. В реальной жизни это явление встречается очень редко. Кроме того, должно насторожить разное расстояние от края радужной оболочки до центра зрачка, полное отсутствие бликов в глазах, из-за чего взгляд выглядит тусклым и неживым.

Еще одна проблемная зона при генерации изображений — границы щек и носа. При наложении маски на лицо реального человека возникают затемнения по контуру щек, на крыльях носа, по краям переносицы. Такие темные пятна — повод задуматься: возможно, перед вами дипфейк.

Неестественный тон кожи — это тоже фактор, который должен насторожить, однако и многие фотографы, чтобы угодить своим моделям, делают в фоторедакторе идеально гладкую блестящую кожу, однако порой это выглядит очень искусственно, словно перед тобой не живой человек, а кукла. Неравномерный тон или отличие в оттенке лица и других частей тела (например, рук) — еще одна черта поддельных фото и видео.

Разное качество участков видео. Если вы видите, что лицо на видео имеет худшее качество, чем другие элементы, это явный признак дипфейка. Подобное встречается, если к телу одного персонажа «прикрепили» голову другого.

Между тем отсутствие синхронизации между речью и движением губ говорит о том, что на видео поменяли оригинальный текст, а голос был сгенерирован при помощи ИИ. Также подделку может выдать мимика, не соответствующая смыслу сказанного.

Фото: YandexART

анонсы
мероприятий
инновации

Исследование Google: взлом шифрования с помощью квантового компьютера оказался в 20 раз проще

 

#, , ,
инновации

За пять лет ИИ cпособен забрать половину офисных рабочих мест начального уровня

 

#, , , ,