Дипфейк – развлечение или оружие?

13.04.2021

Современные угрозы шантажа и манипуляций

Давайте посмотрим небольшой видеофрагмент из фильма “Терминатор”. На нем главный герой учится улыбаться, анализируя окружающий его мир.

Сталлоне действительно неплохо справился со своей ролью и улыбнулся так, как будто делает это впервые в жизни. Можно с уверенностью сказать – верю! Правда, Сильвестр ни разу не появлялся на съемочной площадке Терминатора, и в ролях фильма его имя найти невозможно. Как же тогда Сталлоне подменил “железного Арни”? Видео выше является продуктом новой популярной технологии Deepfake.

Что такое Deepfake, и как это работает

Истоки технологии Deepfake находятся в кинематографии, где используют компьютерную графику для изображения исторических личностей или воссоздания образа умерших актеров, которые не успели досняться в фильме. Ранее для этого использовались целые студии, у которых уходили годы кропотливой работы над подобными эффектами. Сейчас же “сыграть роль” в Терминаторе или в любом другом фильме может практически каждый, нужно лишь иметь производительный ПК у себя дома.

Технология Deepfake использует машинное обучение в своей основе. Искусственный интеллект анализирует фотографии личности, которую вы хотите поместить на отрывок видео, и изучает ее эмоции, черты лица и так далее. Далее система “склеивает” полученные данные с видео, создавая за считанные часы продукт с уровнем качества не хуже “киношного”.

Опасен ли Deepfake

Казалось бы, как такая безобидная технология может принести кому-то вред? На деле же, злоумышленники используют для самых разнообразных целей. Зачастую они создают компрометирующий материал с целью шантажа кого-либо, для получения финансовой или любой другой выгоды.

Также технология Deepfake может быть использована и для более масштабных целей: выставление участников предвыборной гонки в плохом свете, создание фейковых заявлений политический деятелей и так далее.

Как защититься от Deepfake

Множество стран по всему миру ввели уголовную ответственность за создание и распространения материалов Deepfake, которые могут навредить чьей-либо репутации. 

Так, в штате Пенсильвания, США, осудили 50-летнюю женщину за создание фейкового видео на котором соучастницы чирлидинговой команды её дочери употребляли алкоголь и наркотические средства. Женщина в течение продолжительного времени шантажировала подростков.

В свою очередь, популярная социальная сеть Facebook начала сотрудничество с исследователями из Беркли и Оксфорда, с целью автоматизации обнаружения материалов Deepfake и дальнейшей их блокировки.

Перефразируя известную поговорку, необходимо помнить – “на закон надейся, но сам не плошай”. Чтобы не стать жертвой психологических манипуляций, рекомендуем воспользоваться нашим авторским курсом по психологической безопасности. Основная цель курса – не просто охватить типовые случаи социальной инженерии, а показать корневые причины, из-за которых становятся возможными психологические манипуляции, и научить устранять эти причины.

Если вам необходимо системно защитить репутацию известного человека или снизить риски Deepfake для организации или компании, обратите внимание на наши сервисы разведки угроз и реагирования на них. Будем рады помочь вам профессионально оградить себя от изощренного мусора дипфейков, который может серьёзно испортить репутацию и ударить по кошельку.

Другие посты

28/10/2022
ТОП крупнейших инцидентов NFT всех времен
17/09/2022
Взломы CeFi и блокчейн-мостов