Czy „Deep Fakes” to nowa granica przestępczości cyfrowej?

Technologia efektów specjalnych przeżywała prawdziwy rozkwit w ciągu ostatnich kilku dziesięcioleci, a CGI przeszło od prymitywnego i prymitywnego do prawie nie do odróżnienia od rzeczywistości. Teraz, gdy tworzenie realistycznych obrazów staje się coraz bardziej powszechne, polityczni eksperci i eksperci od wymiaru sprawiedliwości w sprawach karnych spodziewają się paniki wokół tak zwanej technologii „głębokiej podróbki”, która może jeszcze bardziej skomplikować trwającą międzynarodową dyskusję na temat „fałszywych wiadomości”. Ale czym właściwie jest „głęboka podróbka” i jakie zagrożenie będzie stanowić ta technologia w przyszłości?





Technologia Deep Fake (czasami określana jako „deepfake”) odnosi się do zsyntetyzowanych i / lub nałożonych obrazów i / lub filmów utworzonych przez sztuczną inteligencję przy użyciu istniejących obrazów i filmów. Korzystając z uczenia maszynowego, technologia ta mogłaby teoretycznie stworzyć przekonujący materiał filmowy przedstawiający osobę wykonującą czyn, który w rzeczywistości nigdy nie miał miejsca.

Owen Williams, profesjonalny inżynier oprogramowania i artysta od efektów wizualnych, przedstawił proste wyjaśnienie.



`` Jest to sposób na wykorzystanie zautomatyzowanego systemu oprogramowania do zastąpienia twarzy osoby w filmie inną twarzą, która jest znacznie bardziej automatyczna i przekonująca niż było to możliwe w przypadku wcześniejszej technologii '' - powiedział Williams. Oxygen.com .



Williams zauważył, że popularne filmy głównego nurtu, takie jak „Jurassic Park” i „Blade Runner: The Final Cut”, wykorzystywały oprogramowanie komputerowe w niektórych scenach w sposób, który mógł być prekursorem głębokich podróbek: „W przemyśle filmowym jest to naprawdę powszechne. Załóżmy, że masz postać, która musi wykonać wyczyn i wolisz, aby jej twarz była widoczna. Klasycznym obejściem byłoby to, że widziałbyś ich tylko od tyłu lub ich włosy byłyby na ich twarzy, więc nie można było stwierdzić, że to podwójne. Ale jest dość zawiła historia, w której filmowcy używali komputerów do umieszczania twarzy aktora nad dublerami kaskaderów ”.



„Kiedyś był to bardzo ręczny proces” - kontynuuje Williams. Teraz, dzięki głębokiej sztucznej technologii, zasilasz komputer dwiema rzeczami: najpierw wideo, które zamierzasz zastąpić, a następnie kilka danych wejściowych twarzy, którą zamierzasz zastąpić. Musisz zrobić wystarczająco dużo zdjęć osoby mającej różne mimiki i pod różnymi kątami. Tworzysz bibliotekę tego, jak twarz tej osoby może wyglądać w różnych sytuacjach, a następnie komputer przegląda i ogląda wideo. Nie wymaga też dokładnego dopasowania. Może zgniatać i przekształcać to, co ma w bibliotece, aby dopasować to, czego potrzebuje. To, co kiedyś wymagało dziesiątek artystów setek godzin, aby spróbować wykonać naprawdę skomplikowany efekt, teraz to tylko naciśnięcie przycisku ”.

Cechą tej technologii, która budzi obawy ludzi, jest to, że dana osoba niekoniecznie musi dobrowolnie przedstawiać swoją twarz, aby wykonać ten proces, biorąc pod uwagę, ile zdjęć jest w sieci większości ludzi - zwłaszcza celebrytów i polityków.



„Jest wystarczająco dużo zdjęć dowolnej gwiazdy pod wystarczającym kątem, aby można było stworzyć tę bibliotekę [bez zgody]” - powiedział Williams. „Wymaga to pewnego nakładu pracy, ale dla każdej mało popularnej postaci takie rzeczy będą istnieć. W moim odczuciu jest mniej prawdopodobne, że byłoby to możliwe dla zwykłej osoby ”.

Pierwsze głębokie fałszywe filmy pojawiły się na forach Reddit pod koniec 2017 roku, według odmiany . Użytkownik twierdził, że używał swojego komputera do tworzenia bardzo realistycznych filmów pornograficznych z różnymi celebrytami zaangażowanymi w czynności seksualne, które w rzeczywistości nigdy nie miały miejsca. Użytkownik twierdził, że załadował do swojego komputera tysiące zdjęć gwiazd, z których sztuczna inteligencja mogła pozyskać przedstawioną mimikę i ruchy. Aplikacja używana przez fałszywych twórców i udostępniona na Reddicie została ostatecznie pobrana ponad 100 000 razy. (Reddit ostatecznie zakazał tego rodzaju treści, mówiąc, że naruszył ich politykę dotyczącą `` mimowolnej pornografii '', według The Verge .)

Williams wątpi w realizm, jaki w tej chwili może osiągnąć to medium.

`` Jeśli kiedykolwiek oglądałeś jedną z tych głębokich podróbek ... jest w tym pewna ilość dziwności '' - powiedział Williams. - Nie są wypolerowane. Prawdopodobnie będzie jednak coraz lepiej, zwłaszcza że Hollywood jest zainteresowane automatyzacją, a nie płaceniem drogim artystom ”.

Podobnie Williams odgadł, że mimo wszystko panika wokół fałszywego porno , zmieniające się postawy kulturowe wokół natury rzeczy, takich jak pornografia zemsta lub wyciekły nagie zdjęcia, oznaczają, że prawdopodobnie ludzie, którzy tworzą tego rodzaju media, byliby potępieni i nie byliby celebrowani, nawet w branży rozrywki dla dorosłych.

„To nigdy nie trafi do głównego nurtu” - teoretyzował Williams. 'Po ' The Fappening „coś się wydarzyło na Reddicie, ludzie byli w stanie zmienić rozmowę i powiedzieć:„ To nie jest skandal, to przestępstwo seksualne ”. Więc po prostu nie uważam, żeby stało się to takim skandalem, jak ludzie myślą. Ludzie mogą również dość łatwo znaleźć oryginalne porno, z którego stworzono głęboką podróbkę, co oznacza, że ​​dość łatwo jest je obalić ”.

Ale to nie tylko budzi niepokój, ponieważ może zostać użyte do stworzenia fałszywego porno z celebrytami. Ludzie są również zaniepokojeni konsekwencjami politycznymi.

Polityczni eksperci zaczęli pisać o rozprzestrzenianiu się głębokich podróbek w 2018 roku. Artykuł Guardiana od listopada tego roku odnotowano wirusowe rozprzestrzenianie się wideo, na którym rzekomo prezydent Donald Trump zachęca naród Belgii do wycofania się z porozumienia klimatycznego z Paryża. To wywołało szerszą dyskusję na temat możliwości wykorzystania tej technologii przez różne rządy w kampaniach masowej dezinformacji, która została już rozpoczęta dzięki toczącemu się śledztwu w sprawie udziału Rosji w wyborach prezydenckich w Stanach Zjednoczonych w 2016 roku.

Panika wokół głębokich podróbek zainspirowała nawet redakcję Bloomberg Media Group do napisania silnie sformułowanego komentarza na ten temat.

„Dowody wideo stały się filarem wymiaru sprawiedliwości w sprawach karnych… właśnie dlatego, że film wydaje się być takim wiarygodnym zapisem czyjegoś przemówienia lub działań. Głębokie podróbki mogą sprawić, że takie dowody staną się podejrzane '' oni napisali w czerwcu 2018 r. „Nadrzędnym wyzwaniem będzie zatem zidentyfikowanie i wywołanie tych fałszerstw - jeśli to możliwe”.

kiedy pojawia się klub złych dziewcząt

Williams zgodził się, że natura głębokich podróbek zagraża naszym wyobrażeniom o „rzeczywistości” w odniesieniu do dowodów wideo, ale zauważył, że to prawne bagno nie jest unikalne dla naszego współczesnego cyfrowego krajobrazu.

„Sprowadza się to w pewnym sensie do pomysłu, że ludzie mają ten film, to prawda, co nigdy nie miało miejsca. Wiedzieliśmy o tym od Rodneya Kinga. Albo pomyśl Eric Garner : Ludzie myśleli, że [oficer, który go zabił] był niewinny, bez względu na to, jakie wideo z incydentu przewidziano. Dla mnie [wiele obaw związanych z głębokimi podróbkami] wydaje się nieco bezpodstawne ”.

Williams wymienił kilka innych incydentów niezwiązanych z głęboką fałszywą technologią, które pokazały, w jaki sposób wideo zostało odważnie zmanipulowane, aby wypaczyć opinię publiczną w danej sprawie, np Kontrowersyjne obalenie ACORN przez Jamesa O'Keefe'a i niedawny skandal z udziałem sfabrykowane wideo rzekomo przedstawiające reportera CNN Jima Acostę atakującego pracownika Białego Domu .

Ostateczny wniosek Williamsa był taki, że histeria otaczająca głębokie podróbki jest nieco przesadzona.

„Widzę, że to działa w obie strony. Jeśli film wyjdzie i jest prawdziwy, ludzie twierdzą, że jest fałszywy. Jeśli pojawi się film i jest fałszywy, ludzie twierdzą, że jest prawdziwy. Każdy przypadek zakłada przypisanie pewnej ilości prawdy do wideo [samemu]. Trudno powiedzieć, w jakim kierunku to wszystko pójdzie. Jeśli Taśma Pee faktycznie wyszedł, na przykład wiesz dokładnie, co by się stało: połowa ludzi powiedziałaby: „To byki - t, to jakiś aktor!”. a połowa ludzi powiedziałaby: „Jest! To jest prawdziwe!' Więc nic by się tak naprawdę nie zmieniło. Zwykle dzieje się tak z nową technologią: rzeczy nie zmieniają się tak bardzo, jak myślą ludzie ”.

[Zdjęcie: SAUL LOEB / AFP / Getty Images]

Popularne Wiadomości