Potwierdzeniem tego założenia szybko stały się autorskie (mniej i bardziej amatorskie) filmiki udowadniające, jakie są możliwości tego narzędzia – wideo z Markiem Zuckerbergiem, który bardzo przekonująco mówi o tym, że świadomie wykorzystuje użytkowników Facebooka, obejrzały setki tysięcy osób. Podobnych nagrań krąży w sieci bardzo wiele – przede wszystkim tych z udziałem celebrytów i aktorów, którym zamienia się twarze i obsadza w abstrakcyjnych rolach.
Czym jest w ogóle deepfake i na czym polega? W dużym uproszczeniu jest to metoda obróbki obrazu, polegająca na łączeniu wielu ujęć twarzy za pomocą sztucznej inteligencji. Łączenie i nakładanie obrazów nieruchomych i ruchomych na obrazy lub filmy źródłowe odbywa się przy użyciu komputerowych systemów uczących się – to one zapamiętują rysy twarzy i ruchy mięśni jednej osoby, aby następnie na podstawie algorytmu nałożyć je na wizerunek drugiej postaci, u której chcemy uzyskać oczekiwany efekt. Dzięki deepfake otrzymujemy łudząco realistyczne nagrania, co do których czasem nie wiemy, czy są autentycznym materiałem, czy też manipulacją – postacie mogą mówić i ruszać się całkowicie naturalnie, bez wywoływania wrażenia sztuczności.
Zobacz również
Przyglądając się tym realizacjom, obawy o szkodliwe konsekwencje używania tej technologii wydają się czymś normalnym – zwłaszcza gdy dobiegają do nas głosy, że deepfake jest wykorzystywany do kompromitowania osób poprzez np. „obsadzenie” ich w filmach pornograficznych. Dużo się też mówiło o wykorzystywaniu tej metody manipulacji w kampaniach politycznych, gdzie bez problemu można byłoby włożyć nieprawdziwe deklaracje w usta innej osoby. Specjaliści do spraw kształtowania wizerunku często wyrażają obawy związane z rozpowszechnianiem fałszywych informacji, które mogą mieć duży wpływ na wyniki wyborów, ale do tej pory nie odnotowano takiego przypadku.
Czy zatem można mówić o jakichkolwiek pozytywnych sposobach wykorzystania tej techniki w mediach? Oczywiście, że tak – marketingowcy od niedawna posługują się nią do tworzenia ciekawych działań i projektów, które często zaskakują i zmuszają odbiorców do interakcji.
Deepfake pomaga stworzyć ukierunkowany komunikat
Na szczęście nie wszyscy popadli w krótkowzroczność, która wiąże się z dostrzeganiem wyłącznie negatywnych następstw wykorzystywania technologii deepfake. Firma Synthesia oferuje przedsiębiorstwom i organizacjom możliwość korzystania z tego narzędzia tak, aby mogły rozwijać swoje formy promocji. Najlepszym przykładem działań tego innowacyjnego startupu mogliśmy zaobserwować w ostatniej kampanii „Malaria No More”, w której wziął udział David Beckham. Przy wykorzystaniu algorytmów sprawiono, że piłkarz w bardzo naturalny i przekonujący sposób mówił widzom o zagrożeniu, jakie niesie ze sobą malaria. Przy tym uwaga – zrobił to w dziewięciu różnych językach. Nie ma wątpliwości, że bohater sam nie nauczył się wszystkich tych sentencji – wypowiadał je zbyt naturalnie, a w dodatku różnymi głosami i ze zbyt swobodnym akcentem, jak na osobę, która nie jest native’em. Jasno widać, że głosy zostały podłożone, więc nie można tu mówić o jakimkolwiek oszustwie, czy próbie nabrania widza.
Movember/Wąsopad: jak marki zachęcają do profilaktyki męskich nowotworów [PRZEGLĄD]
Ta wyjątkowa kampania jest dowodem na to, że w deepfake nie chodzi wyłącznie o podszywanie się pod kogoś i rozpowszechniania nieprawdziwych informacji. Zaawansowana technologia może być też używana do tworzenia różnego rodzaju komunikatów, które są dopasowane do potrzeb demograficznych konkretnego odbiorcy – ten sam film, z tym samym głównym bohaterem, można tłumaczyć na różne języki bez udziału lektora. W ten sposób stworzony materiał jest dostosowany do konkretnej grupy odbiorców i z pewnością będzie przekładać się na zwiększoną konwersję oraz zaangażowanie.
Słuchaj podcastu NowyMarketing
Cyfrowa reinkarnacja
Kolejnym pozytywnym przejawem zastosowania techniki deepfake jest akcja promocyjna przeprowadzona przez muzeum Dali St. Petersburgu , w którym postanowiono w wyjątkowy sposób uczcić 115 rocznicę urodzin najbardziej znanego na świecie malarza surrealisty. Na multimedialnych ekranach, które stanęły tuż przy wejściu na wystawę, pojawiał się „ożywiony” artysta, który mimo że nie żyje od 1989 roku, rozmawiał z gośćmi instytucji i… robił sobie z nimi selfie. Jak to możliwe? Twórcy projektu o nazwie „Dali lives” stworzyli ruchomy obraz postaci za pomocą algorytmu SI, który musiał przeanalizować setki obrazów i wywiadów z Salvadorem Dalim, aby móc stworzyć na ich podstawie pewien kod z zapisaną unikalną mimiką, ruchami, charakterystycznymi gestami. Oczywiście sam kod nie był wystarczający – potrzebny był jeszcze podobny aparycją do Dalego aktor, który odegrał różne scenki z napisanego przez muzeum scenariusza. Dopiero na taki materiał można było „nałożyć” zapisane ruchy mięśni oryginalnego Salvadora Dalego. Efekt tej akcji był zaskakujący – zwiedzający mogli wejść w interaktywną rozmowę z artystą i poniekąd znaleźć się bliżej swojego idola. Mimo że okazała się dużym sukcesem i otrzymała wsparcie ze strony Fundacji Gala-Salvador Dali, znaleźli się również jej przeciwnicy. Krytycy twierdzili, że nadużyto wykorzystania wizerunku zmarłego człowieka, który tak naprawdę nie wyraził zgody na udział w projekcie.
Mona Lisa przemówiła
Innym przykładem wykorzystania technologii deepfake w świecie sztuki jest projekt stworzony przez laboratorium Samsunga w Moskwie. Tamtejsi inżynierowie stworzyli inteligentny mechanizm odtwarzania ruchów twarzy, który „nauczył się” ich na podstawie dziesiątek tysięcy materiałów filmowych. Po wgraniu i skatalogowaniu ich wszystkich urządzenie nauczyło się samodzielnie dopasowywać odpowiednią mimikę postaci do jej wyglądu na podstawie znajdowania pewnych podobieństw. Program jest w stanie „ożywić” osobę na podstawie jej zdjęcia – w dodatku robi to w sposób bardzo realistyczny i z wykorzystaniem wielu szczegółów danej twarzy. To doświadczenie udowadnia też, że właściwie wystarczy jeden obraz, aby móc wykorzystać czyjąś twarz w sfałszowanym materiale.
Deepfake jako ostrzeżenie przed złodziejami tożsamości
Jeśli chodzi o polski rynek mediów to jednym z pierwszych przykładów wykorzystania deepfake’a w kampanii był bank BNP Paribas. W ramach współpracy z Aretą Szpurą powstało zaskakujące wideo, w którym ekologiczna influencerka zaczęła zachwalać nadmierny konsumpcjonizm, używanie plastikowych słomek, czy brak segregacji odpadów. Wszystkim widzom wydało się to o tyle dziwne, że Areta Szpura przez niektóre media uznawana jest wręcz za „twarz polskiej ekologii”. Jednak dopiero następnego dnia okazało się, że bohaterką nagrań była tak naprawdę koleżanka Arety, która dzięki technologii deepfake mogła przez jeden dzień przejąć jej profil.
Przeprowadzona akcja miała na celu nie tylko promocję nowego produktu banku, jakim jest ubezpieczenie od kradzieży tożsamości w sieci, ale także zwrócenie uwagi na nasze bezpieczeństwo w sieci. Im częściej w dzisiejszych czasach mówimy na ten temat, tym więcej będziemy wiedzieć o tym, jak reagować w takich sytuacjach.
– Internet wydaje nam się pozornie wolnym medium, ale niestety musimy się nauczyć kwestionować to, co tam widzimy. W dzisiejszych czasach nie tylko są to wyreżyserowane zdjęcia z odpowiednim filtrem na Instagramie, ale i nowoczesne technologie, z których zagrożeń ja sama nie zdawałam sobie sprawy. Mam nadzieję, że dzięki tej akcji alarmowa lampka zapali się nam częściej w głowie i będziemy ostrożniejsi w naszych zachowaniach – komentuje Areta Szpura.
Technologia deepfake będzie się rozwijać – to rzecz pewna i nieunikniona. Jej potencjał jest ogromny, ale pozostaje pytanie, w jaki sposób będzie wykorzystywana w najbliższej przyszłości. Liczymy na to, że tak jak w wyżej opisanych przykładach, deepfake okaże się pożytecznym narzędziem w rękach agencji reklamowych i marketingowych.