Как работают глубокие подделки и кто их использует?
Обзоры технологий

Как работают глубокие подделки и кто их использует?

Вы, вероятно, видели больше подделок, чем думаете, но как они работают на самом деле?

Искусственный интеллект и машинное обучение способны творить чудеса – от создания произведений искусства до автоматизации административной работы. Но они также представляют собой риск, так как могут дать возможность плохим игрокам использовать такие трюки, как deepfake

По мере развития этой конкретной технологии полезно узнать, как на самом деле работают deepfake и кто вообще захочет их использовать— как законно, так и незаконно

Почему важно понимать, как и зачем используются глубокие подделки

Основное применение технологии deepfake в основном связано со смешными, порнографическими или кинематографическими материалами, но одно исследование доказало, что deepfake могут обмануть систему распознавания лиц. Уже одно это является причиной для беспокойства и повышения бдительности

Чем больше технология используется в повседневной жизни и крупномасштабных проектах, тем лучше ее разработчики учатся создавать бесшовные поддельные видеоролики с людьми, будь то знаменитости или члены семьи

Понимание того, как защитить себя от deepfake-видео, сейчас просто необходимо, учитывая, как охотно отрасли используют преимущества этой технологии, особенно в сфере развлечений.<4. Голливуд использовал ее в нескольких проектах задолго до участия Metaphysic в проекте AGT, который показал всему миру, насколько быстрым и эффективным может быть создание deepfake. Вот что включает в себя этот процесс

Как работают глубокие подделки?

Что касается того, что стоит за глубокими подделками, подсказка кроется в названии: глубокое обучение, наука об искусственных нейронных сетях (ИНС). В алгоритмах глубокого обучения они поглощают данные, учатся на них и создают новые данные в виде выражения лица или целого лица, наложенного на ваше

Разработчики программного обеспечения для глубокой подделки обычно используют один из двух типов ANN: автоэнкодеры или генеративные состязательные сети (GAN)

Автоэнкодеры учатся воспроизводить массу данных, которые им скармливают, в основном фотографии лиц и выражений, и воссоздают запрошенные наборы данных. Однако они редко бывают точными копиями

GAN, с другой стороны, имеют более умную систему, которая включает генератор и дискриминатор. Первый воспроизводит полученные данные в глубокие подделки, которые затем должны обмануть второго

Дискриминатор сравнивает творения генератора с реальными изображениями и определяет их эффективность. Лучшие подделки, конечно, те, которые идеально имитируют поведение человека

Дискриминатор сравнивает свои творения с реальными изображениями и определяет их эффективность.

Итак, как же создаются подделки с помощью этой технологии? Алгоритмы таких приложений, как Reface и DeepFaceLab, постоянно изучают данные, проходящие через них, чтобы эффективно корректировать черты и выражения лица или накладывать одно лицо на другое

По сути, программное обеспечение представляет собой видеоредактор, специально разработанный для манипулирования лицами. Некоторые приложения сложнее других, но в целом вы можете делать все, что угодно: от старения человека до редактирования себя в кино

Но у технологии все еще есть недостатки. Создание Deepfake может быть сложнее, чем создание поддельных видео в прямом эфире, но обнаружить его можно так же просто, как и ложное

Как распознать фейк

Поскольку глубокие подделки в основном делаются машинами, черты или манеры цифрового лица не всегда выглядят естественно. Также могут быть ошибки в настройке видео. Другими словами, подделку можно распознать, если знать, что искать

Вот некоторые характерные признаки:

  • Неестественное моргание: Машинное обучение часто не замечает моргания глаз или делает его неловким.
  • Размытые или неустойчивые черты лица: Волосы, рот или подбородок человека могут быть слегка размыты или двигаться странным, часто преувеличенным образом.
  • Отсутствие или искажение эмоций: Плохие глубокие подделки бесстрастны или плохо имитируют эмоции.
  • Неловкий язык тела: Если человек на видео двигает головой или телом искаженно или несогласованно, это может быть глубокая подделка.
  • Неправильные цвета и освещение: Обесцвечивание, необъяснимое освещение и тени – верные признаки поддельного видео.
  • Несоответствующие объекты: При корректировке видео программа deepfake может допускать ошибки, например, изменять форму одежды, украшений и фоновых объектов.
  • Плохое аудио: Глубокие подделки могут искажать речь и звуки в видео.
  • Чтобы максимально эффективно использовать способы выявления подделок, узнайте, для чего обычно снимаются такие видео, и обращайте пристальное внимание на детали в кадрах, которые вы видите онлайн— по возможности замедляйте их

    Кроме того, разрабатывается все больше инструментов, таких как Microsoft Authenticator и Sensity’s Forensic Deepfake Detection, которые анализируют видео на мельчайшем уровне

    Кто использует подделки?

    Режиссеры все чаще используют глубокие подделки, чтобы состарить или заменить лица актеров, как в ‘Звездных войнах’. Художникам удается анимировать портреты и заставлять их говорить и петь

    Маркетологи экспериментируют с технологией deepfake для рекламного контента, который не требует найма актеров. Такие компании, как WPP, также применяют ее в своих учебных видеороликах

    Технари, в целом, создают забавные видео, в которых они меняются лицами с друзьями или накладывают одного актера на другого в популярных фильмах. Сильвестр Сталлоне снял ‘Home Alone’, а Джокер Хита Леджера появился в ‘A Knight’s Tale’

    К сожалению, если вы изучите, для чего еще используется технология deepfake, вы обнаружите множество вредоносных случаев. Создатели deepfake любят распространять дезинформацию и оскорбительные сообщения, а также нападать на знаменитостей и снимать их в фильмах для взрослых. Людей даже шантажируют поддельными кадрами

    В своей нынешней разнузданной форме deepfake является синонимом риска для прав людей на частную жизнь, безопасности и даже авторских прав, например, когда алгоритм явно использует фотографию или произведение искусства, не находящееся в открытом доступе

    Вот почему страны и бренды ставят точку. По состоянию на 2021 год, согласно карте законов о фейках в США, составленной Cyber Civil Rights Initiative, четыре штата теперь пресекают публикацию фейковых видео, на которых кто-то изображен в откровенном или ином вредном виде

    Китай также предпринимает шаги по криминализации глубоких подделок, которые наносят вред людям и обществу, будь то нарушение прав личности или распространение фальшивых новостей. Даже Мета объявила в 2020 году, что вводящие в заблуждение, манипулированные видео не приветствуются

    Помимо регулирования, официальные органы по всему миру добиваются лучшего обнаружения и предотвращения преступлений, связанных с deepfake. В докладе Института Ратенау о том, как европейская политика должна бороться с фейками, одобряется программное обеспечение с такими инструментами, как распознавание диктора и лица, определение живости голоса и анализ черт лица

    Узнайте, как работают глубокие подделки, чтобы ввести вас в заблуждение

    Глубокие подделки уже стали мейнстримом, к лучшему или худшему. Поэтому наслаждайтесь забавными и вдохновляющими видеороликами, готовясь к борьбе с любыми вредоносными

    В конце концов, что такое deepfake, как не инструмент, созданный для того, чтобы обмануть вас? Если вы знаете, что искать и как реагировать, он будет иметь меньше власти над вами

    Например, вы сможете обнаружить глубокие подделки в социальных сетях наряду с фальшивыми новостями и аккаунтами и уклониться от дезинформации, попыток фишинга и многого другого. По мере совершенствования технологии обнаружения и предотвращения глубоких подделок вам будет оказываться все большая поддержка

    Об авторе

    Алексей Белоусов

    Привет, меня зовут Филипп. Я фрилансер энтузиаст . В свободное время занимаюсь переводом статей и пишу о потребительских технологиях для широкого круга изданий , не переставая питать большую страсть ко всему мобильному =)

    Комментировать

    Оставить комментарий

    ВАМ БУДЕТ ИНТЕРЕСНО