Технология Deepfake быстро становится все проще и производительней, и это открывает дверь для новой формы киберпреступности. Несмотря на то, что данная технология все еще в целом рассматривается как относительно вредная, но порой даже остроумная, эта тенденция может принять более зловещий поворот в будущем и оказаться в центре политических скандалов, киберпреступности или даже невообразимых концепций, связанных с фальшивыми видеороликами, снятыми не только относительно общественных деятелей.
Deepfake — это метод синтеза человеческого изображения, основанный на искусственном интеллекте, для создания поддельного контента с нуля или с использованием существующего видео, разработанного для воспроизведения внешнего вида и голоса реального человека. Такие ролики могут выглядеть невероятно реальными, и в настоящее время многие из этих видео демонстрируют знаменитостей или общественных деятелей, которые говорят что-то возмутительное или неправдивое.
Новое исследование показывает огромный рост в создании фальшивых видео, причем количество таких видео онлайн почти удвоилось только за последние девять месяцев. Качество deepfake-роликов тоже быстро растет. Это видео, демонстрирующее, как Билл Хейдер легко трансформируется то в Тома Круза, то в Сета Рогена, является лишь одним из примеров того, насколько аутентично выглядят и звучат эти видео. Если вы будете искать на YouTube термин «deepfake», вы четко осознаете, что мы видим лишь верхушку айсберга в отношение того, что грядет на самом деле.
Фактически, мы уже видели технологию deepfake (фальсификации), которая использовалась для мошенничества, где, как сообщалось, был использован фальшивый голос, чтобы путем мошенничества получить от некоего генерального директора большую сумму наличных денег. Считается, что данный генеральный директор неназванной британской компании думал, что он на телефонной связи со своим руководителем и просто выполнил его приказ немедленно перечислив 220 000 евро (примерно 244 000 долларов США) на банковский счет венгерского поставщика. Если было так легко повлиять на кого-то, просто попросив его выполнить необходимое действие по телефону, то, безусловно, нам потребуется более надежная защита, чтобы снизить риск такой угрозы.
Обмануть невооруженный глаз
Мы также видели приложения, делающие DeepNudes-фото, т.е. могли превратить фотографию любого одетого человека в фотографию топлесс за считанные секунды. Хотя, к счастью, это конкретное приложение теперь недоступно онлайн, но что, если оно вернется в другой форме, вдвое сильнее, и сможет создать убедительно аутентичное видео?
Существует также доказательство того, что производство этих видео становится прибыльным бизнесом, особенно в порноиндустрии. Канал Би-Би-Си заявляет, что «96% этих видео о женщинах-знаменитостях, где их изображения являются частью видео сексуального характера, созданы без их ведома или согласия».
Недавний Калифорнийский законопроект сделал решительный шаг и объявил создание порнографического deepfake-ролика кого-либо без согласия незаконным, предусмотрев наказание в виде штрафа в размере до 150 000 долл. США. Но есть вероятность, что никакое законодательство не сможет помешать некоторым людям сфабриковать подобные видео.
Безусловно, в статье журнала The Economist говорится, что для того, чтобы сделать достаточно убедительный deepfake-ролик, вам понадобится серьезное количество видео-материала и/ или голосовых записей, даже если нужно сделать короткий deepfake-ролик. Я отчаянно хотел создать deepfake-ролик о себе, но, к сожалению, без многих часов съемок я не смог сделать deepfake-ролик своего лица.
С другой стороны, в не слишком отдаленном будущем вполне возможно взять всего несколько коротких историй в Instagram, чтобы создать deepfake-ролик, которому поверит большинство подписчиков в Интернете или кто-либо еще, кто знает этого человека. Мы можем увидеть невообразимые видеоролики, показывающие людей из близкого круга общения — начальника, наших коллег, наших сверстников, нашу семью. Кроме того, deepfake-ролики могут также использоваться для психологического притеснения в школах, офисе или других сферах.
Кроме того, киберпреступники, безусловно, будут использовать такую технологию для адресного фишинга жертв. Deepfake-ролики становятся дешевле в создании, и их практически невозможно идентифицировать как подделку только одним человеческим глазом. В результате, эта фальшивка может очень легко дезориентировать между фактом и вымыслом, что, в свою очередь, может заставить нас не доверять ничему, даже когда нам дают то, чему наши чувства говорят верить.
Предвосхищая вполне реальную угрозу
Итак, что можно сделать, чтобы подготовить нас к этой угрозе? Во-первых, нам нужно лучше информировать людей о том, что существуют deepfake-ролики, как они работают и какой потенциальный ущерб они могут нанести. Нам всем нужно научиться относиться к даже самым реалистичным видео, которые мы видим, с пониманием, что они могут быть полностью сфабрикованы.
Во-вторых, технология отчаянно нуждается в улучшении идентификации deepfake-роликов. Уже ведутся исследования, но это далеко не тот уровень, который необходим. Хотя машинное обучение лежит в основе создания таких роликов, должно быть нечто, действующее как противоядие, способное обнаружить подделку, не полагаясь только на человеческие глаза.
Наконец, социальные медиа-платформы должны осознавать, что существует огромная потенциальная угроза от воздействия deepfake-роликов, потому что, когда вы смешиваете шокирующее видео с социальными сетями, результат имеет тенденцию распространяться очень быстро и потенциально может иметь пагубные последствия для общества в целом.
Не поймите меня неправильно, я наслаждаюсь развитием технологий и наблюдаю за тем, как они развиваются на моих глазах, однако, мы должны помнить о том, как технология иногда может пагубно влиять на нас, особенно когда машинное обучение развивается быстрее, чем когда-либо прежде. В противном случае мы скоро станем свидетелями того, что deepfake-видео становятся повседневной нормой с далеко идущими последствиями.