Россиянам объяснили, что дипфейк можно распознать по «стеклянному» взгляду
Искусственный интеллект стремительно стирает границы между подлинным и ложным, реальным и имитированным. С помощью современных цифровых технологий стало возможным создавать как полностью искусственные объекты и образы, симулякры, так и предельно точные копии реально существующих объектов, вещей и даже людей.

- Сгенерировано с помощью ИИ
Как предупредил в беседе с RT эксперт по информационной безопасности компании «Киберпротект» Саркис Шмавонян, неотличимые от оригинала голосовые сообщения от коллег, «кружки» от начальников и акционеров с просьбой вывести средства с корпоративного счёта, звонки от родственников и друзей с целью сообщения вами конфиденциальной информации — лишь некоторые примеры того, как технология в руках злоумышленников может использоваться в противозаконных целях.
Шмавонян подчеркнул, что с развитием технологий ситуация будет только ухудшаться, поскольку создание дипфейков становится доступным даже без глубоких технических знаний.
«Тем не менее стоит обращать внимание на некоторые признаки, которые могут выдать подделку. Среди них неестественный «стеклянный» взгляд, странное моргание, рассинхронизация губ и речи, чрезмерно гладкая кожа, а также роботизированное звучание голоса. Такие признаки характерны в основном для простых фейков — современные модели умеют имитировать даже микродвижения лица», — уточнил специалист.
Он также напомнил, что, помимо возможностей зрительного и аудиального анализа, существует специализированное ПО, предназначенное для определения подлинности контента: различные сервисы могут анализировать аудио и видео как в реальном времени, так и работать с предзагруженными файлами.
Самым надёжным способом защиты эксперт назвал цифровую гигиену и критическое мышление.
«Кибермошенники, используют они в своей деятельности дипфейки или нет, часто оперируют стандартными сценариями, пытаясь воздействовать на психику жертвы. Потребляя и создавай цифровой контент, взаимодействуя в сети, стоит придерживаться принципа нулевого доверия: любое фото или видео, голос или текст может оказаться подделкой», — предупредил собеседник RT.
Он посоветовал не принимать поспешных и необдуманных решений, увидев на экране знакомое лицо начальника или друга.
«Выключите ноутбук и свяжитесь с человеком по альтернативным каналам связи, при необходимости придумайте кодовые слова и задавайте вопросы, ответы на которые могут знать только вы и человек, с которым вы якобы находитесь на связи», — предупредил Шмавонян.
При малейших подозрениях эксперт порекомендовал немедленно прекращать общение, а также сохранять переписку и медиафайлы, которые могут стать доказательствами мошенничества.
Отдельно он отметил, что в России пока нет специальной статьи за дипфейки, однако действия злоумышленников подпадают под существующие нормы законодательства, включая статьи о мошенничестве, вымогательстве и нарушении частной жизни.
Ранее в России призвали запретить генерировать с помощью ИИ картинки к товарам в сети.






