Створені за допомогою алгоритмів глибинного навчання відео не лише слугують розвагою, а й можуть бути засобом маніпуляції свідомістю.
Діпфейки – відео, які були змінені, щоб створити ілюзію того, що герой робить чи каже щось інше, ніж насправді, переживають еру свого розквіту. З кожним роком таких фейків стає усе більше, а самі вони стають усе реалістичнішими.
Так, у Мережі вже наявні штучно створені відео з експрезидентом США Бараком Обамою, очільником соцмережі Facebook Марком Цукербегом та з героєм популярного шоу "Гра престолів" Джоном Сноу, і деякі з них мають надзвичайно достовірний вигляд.
ТСН.ua розібрався, що таке діпфейки, та чому їх зараз усі обговорюють.
Як виникли діпфейки
Вперше про змодельовані відео, відомі як діпфейки, заговорили у грудні 2017 року. Тоді авторка видання Vice Саманта Коул опублікувала статтю про створене за допомогою штучного інтелекту порно, у якому нібито "знімалася" зірка популярної кінострічки "Чудо Жінка" Галь Гадот.
У матеріалі йшлося про появу низки порновідео з відомими селебрітіс – діпфейків. Примітно, що свою назву відео отримали через те, що саме так називався акаунт користувача Reddit, який їх розповсюджував.
Поява цих роликів була першим зафіксованим випадком, коли одна людина була здатна швидко створити власноруч високоякісні та надзвичайно переконливі фейкові відео.
За словами Коул, виготовлені діпфейки були за допомогою програм машинного навчання з відкритим кодом на кшталт TensorFlow, якою "користуються дослідники, випускники університетів та й узагалі усі, хто цікавиться машинним навчанням". Процес створення цих відео зайняв не більше ніж кілька годин та навіть не потребував потужної відеокарти.
Найпопулярніші діпфейки
Однак перші штучно змодельовані відео виникли ще до того, як тема набула суспільного резонансу. За кілька місяців до публікації матеріалу Коул, команда дослідників Університету Вашингтона створила згенероване комп'ютером відео з Бараком Обамою зі старих аудіо та відеозаписів.
Воно спричинило справжній фурор та викликало занепокоєння у наукових колах. Спеціалісти побоювалися того, як подібна технологія може бути використана у майбутньому. Проте на той момент ризик здавався не надто серйозним, адже запис було створено професіоналами.
Проте вже 2018-го з'явилася програма FakeApp. Вона привела технологію створення діпфейків у маси і дозволила кожному з легкістю створювати власні діпфейк-відео. Більшість з них, знову ж таки, мали порнографічний характер. Проте були й інші – на кшталт низки відео, у яких обличчя героїв низки кінострічок замінили на обличчя актора Ніколаса Кейджа.
Цього ж року з'явилося й ще одне відео з Бараком Обамою. Створене виданням BuzzFeed, воно відрізнялося від відео вчених з Університету Вашингтона тим, що у ньому американський експрезидент вимовляв фрази, задані творцем відео.
Виготовила запис одна людина. Автор використовував FakeApp – програмі знадобилося 56 годин для того, щоб згенерувати реалістичне відео з Обамою. І хоча BuzzFeed не приховував, що запис є діпфейком, це стало першим попередженням про потенційно небезпечні наслідки використання технології.
Після цього почали з'являтися різноманітні змодельовані відео з іншими політиками, на кшталт членкині Демократичної партії США Александрії Окасіо-Кортес, що вийшло у червні 2018 року. Воно не було діпфейком, але стало засобом можливої дезінформації глядачів.
А вже цьогоріч, у червні 2019, з'явився діпфейк із власником соцмережі Facebook Марком Цукербергом. У ньому підприємець нібито зізнається у тому, що "одна людина володіє краденими даними про мільярди людей, про усі їх таємниці, їхнє життя та майбутнє". Примітно, що у Facebook відео вирішили не видаляти.
Цього липня у Мережі також з'явилося діпфейк-відео, на якому "схрестили" президента США Дональда Трампа і президента Росії Володимира Путіна. Зробив його моушн-дизайнер і художник з Берліна Александр Курт (Alexander Court) за допомогою нейромережі.
Курт створив ролик за допомогою програми DeepFaceLab, а потім провів пост-обробку в Adobe After Effects.
Моушн-дизайнер витратив на тренування алгоритму 240 тисяч епох — іншими словами, нейромережа навчалася 240 тисяч разів на одному наборі даних.
Нерідко для створення діпфейків використовуються й популярні кінострічки та телешоу. Так, до прикладу, нещодавно Курт створив реалістичне відео, у якому обличчя актора, що грає Марка Цукерберга у "Соціальній мережі", замінене на обличчя реального творця Facebook.
Cеред популярних витворів Александра Курта й кумедне відео з "омоложенням" Леонардо Ді Капріо. У підписі до нього моушн-дизайнер зазначив: "Лео не виграв "Оскар" за кінострічку "Титанік", проте якби це трапилося, то виглядало б отак".
Цьогоріч також з'явилося надпопулярне діпфейк-відео з Сильвестром Сталоне у ролі Термінатора.
Сцена з фільму "Термінатор 2: Судний день" виглядає настільки достовірною, що людина, незнайома з франшизою, може з легкістю повірити у те, що Сталоне знімався у кінострічці 1991 року. Сам актор зазначив: "Це те, який вигляд мав би Термінатор, якби він був зі спагеті та піци".
Примітно, що творцем відео є Ctrl Shift Face. Раніше цей користувач Мережі створив популярне відео з Арнольдом Шварцнегером. У ньому обличчя губернатора штату Каліфорнія з'являються на обличчі комедіанта Білла Хейлера, коли той пародіює колишнього актора.
Нещодавно користувач виклав ще одне відео – у ньому нейромережа у фільмі "Сяйво" (за однойменним романом Стівена Кінга) замінила Джека Ніколсона на Джима Керрі. На думку коментаторів, це зробило фільм ще більш моторошним.
Серед віральних витворів Ctrl Shift Face - відео, у якому на обличчі головного героя з американської пригодницької комедії "Історія лицаря", де Гіт Леджер виконав головну роль, з'являється обличчя Джокера з "Темного Лицаря". Цей діпфейк було опубліковано лише минулого місяця, проте він вже набрав понад 500 тисяч переглядів.
Заслуговує уваги й пародія на сцену з "Бійцівського клубу", що робить очевидним роздвоєння особистості головного героя популярної кінострічки.
Дісталися діпфейки й до "Гри престолів". Так, після виходу останнього сезону культового серіалу з'явився відеозапис, на якому один з героїв шоу – Джон Сноу – просить вибачення за те, яким вийшов фінал саги. Проте цей діпфейк, на відміну від інших, є очевидною маніпуляцією та не вводить нікого у оману.
Наразі низка дослідників намагаються винайти технологію, за допомогою якої можна було б навчитися розпізнавати створені за допомогою алгоритмів глибинного навчання відео. Проте поки що будь-які спроби зробити це є марними.