Kardynał Ryś „reklamował” zioła i suplementy diety, po których miał czuć się tak dobrze, że nawet „robił” salto. A prezydent wraz z red. Rymanowskim w zmanipulowanym wywiadzie, który wprawdzie odbył się, ale dotyczył czegoś innego, „polecali” rzekomo bezpieczne inwestowanie. W innych fałszywych filmikach głowa państwa „zachęca” do zarobku na platformie bitcoinowej, która ma być autoryzowana przez Kancelarię Prezydenta.
To, co spotyka znane osoby, może spotkać każdego z nas. I każdy z nas jest wobec zjawiska deepfake tak samo bezbronny.
Zobacz również
Dlatego jestem przekonany, że czas na ogólnopolską kampanię społeczną nie tylko przestrzegającą przed deepfake, ale także wzywającą polityków do zmiany prawa i stanowczej ochrony wizerunku każdego z nas w sieci.
My, działający w obszarze komunikacji poradzimy sobie z odróżnieniem fejka od prawdy. Ale naszą odpowiedzialnością jest nauczyć tego innych.

Hydra o milionie głów
Deepfake jest jak hydra. Mitycznemu potworowi w miejsce jednej odciętej głowy odrastały zaledwie dwie lub trzy, ale współczesna AI-hydra jest po wielekroć gorsza. W miejsce jednej fałszywki usuniętej z sieci pojawiają się setki kolejnych. Te multiplikują na kontach-botach, wylewają się z social mediów, pojawiają się jako reklamy na stronach internetowych, które codziennie odwiedzamy. Są wszędzie i są coraz bardziej podstępne i wyrafinowane.
Słuchaj podcastu NowyMarketing
Przez jeden z portali społecznościowych przetoczyła się ostatnio fala zachwytów nad charytatywną działalnością Igi Świątek, wywołana postami o jej rzekomych działaniach. Tylko nic z tego nie było prawdą. Siedem deepfake’ów na innej platformie, w których atrakcyjne dziewczyny nawoływały do Polexitu, postawiło na nogi komentatorów i skłoniło do reakcji rząd, który zgłosił sprawę do Komisji Europejskiej, zwracając uwagę, że wspomniana platforma nie przestrzega unijnego prawa.
Omenaa Mensah i Rafał Brzoska poszli do sądu przeciwko big techowi, który pozwalał na umieszczanie fałszywych informacji o ich życiu na portalu społecznościowym. I wygrali. Takie przypadki z użyciem deepfake można mnożyć. Dotyczą one jednak nie tylko celebrytów, ale też zwykłych Kowalskich. Także dzieci, które padają ofiarą kolegów, wykorzystujących deepfake jako narzędzie hejtu. W takich sprawach już znacznie trudniej się obronić. I tak naprawdę nikt i nic Kowalskiego nie chroni.
Jak to się robi w Ameryce…
Zdobywca Oscara, Matthew McConaughey, miał dość deepfake’ów ze swoim udziałem. Postanowił zatem „zastrzec się” w Urzędzie Patentów i Znaków Towarowych Stanów Zjednoczonych. Ochrona patentowa obejmuje jego głos, wizerunek, dźwięk jego słynnego powiedzenia „Alright, alright, alright” z filmu „Dazed and confused”, a także krótkie klipy, na których patrzy w kamerę.
McConaughey doskonale wiedział, co robi. Jest bowiem inwestorem w startupie ElevenLabs zajmującym się sztuczną inteligencją głosową. Zna możliwości AI i deepfake jak mało kto. Prawnicy aktora podkreślają, że znaki towarowe mają na celu powstrzymanie AI przed symulowaniem głosu lub wizerunku ich klienta bez jego zgody.
– Chcemy stworzyć jasne granice własności, tak aby zgoda i przypisanie autorstwa stały się normą w świecie sztucznej inteligencji – napisał Matthew McConaughey w oświadczeniu cytowanym przez „Wall Street Journal”.
Jak podkreśla gazeta, stanowe przepisy dotyczące praw do wizerunku chronią już aktorów przed kradzieżą ich wizerunku lub podobizny w celu sprzedaży produktów. Prawnicy McConaugheya, który jako pierwszy „zastrzegł się” w urzędzie patentowym, są zdania, że sama groźba pozwu w sądzie federalnym pomogłaby powstrzymać nadużycia związane z rozpowszechnianiem filmów AI, nawet jeśli nie miałyby one nic wspólnego z reklamą.
Związki zawodowe i firmy działające w Hollywood opowiedziały się za uchwaleniem prawa zakazującego tworzenia replik osób generowanych przez sztuczną inteligencję bez ich zgody. Projekt ustawy został przedstawiony w Kongresie w 2024 r., ale nie został poddany pod głosowanie ani w Izbie Reprezentantów, ani w Senacie. Zresztą w sytuacji, w których na oficjalnym koncie w mediach społecznościowych Białego Domu i jego głównego lokatora znajdziemy liczne deepfake’i (w tym rozebranego prezydenta Wenezueli, Nicolasa Maduro, pojmanego przez USA), uchwalenie takiej ustawy wydaje się niezwykle mało prawdopodobne.
Jak to wygląda w Polsce?
Szansę na walkę z deepfake’ami dawała zawetowana przez prezydenta ustawa o usługach cyfrowych, która miała za zadanie wprowadzić do polskiego prawodawstwa unijny Digital Service Act (Akt o Usługach Cyfrowych). Ustawa określała zasady dotyczące funkcjonowania i nadzoru nad dużymi platformami internetowymi w kwestii usuwania treści nielegalnych i szkodliwych oraz przejrzystości moderacji. Karol Nawrocki uznał ją za zagrażającą wolności słowa w Internecie. Kilkanaście tygodni wcześniej, gdy prace nad ustawą jeszcze trwały, prezydent przyjął w Pałacu Prezydenckim delegację Mety, która to platforma stanowczo sprzeciwiała się unijnemu rozwiązaniu. Przypadek?

Prezydent o swoje dobra w Internecie nie musi się martwić. Każdego autora obrazka z rozebraną pierwszą parą RP, które na fali ogólnoświatowego trendu zalały sieć, mógłby pozwać z artykułu 135. Kodeksu Karnego, który mówi o znieważaniu głowy państwa. Zwykły obywatel ma znacznie trudniej. Zauważył to już prezes Urzędu Ochrony Danych Osobowych, Mirosław Wróblewski, który w wystąpieniu do wicepremiera i Ministra Cyfryzacji Krzysztofa Gawkowskiego napisał, że w polskim porządku prawnym niezbędne jest wprowadzenie takich przepisów, które będą bezpośrednio odnosić się do rozpowszechniania szkodliwych treści w postaci deepfake’ów i zapewnią ofiarom możliwość skutecznego i szybkiego dochodzenia ochrony swoich praw. I co? I nic.
Cyfrowa samoobrona
Jeśli prawo nie jest w stanie nadążyć za technologią, a politycy swoimi decyzjami wręcz odbierają technologii odpowiedzialność, przychodzi czas na działanie. Dlatego jestem zdania, że potrzebujemy ogólnopolskiej kampanii społecznej przeciwko deepfake’om. Wiedza o tym, jak je rozpoznać, powinna wychodzić nam z lodówki. Bo wiedzy nigdy dość. Ileż to mówimy o metodzie „na wnuczka” czy na „włamanie na konto”, a wciąż są osoby, które dają się na to nabierać. Ale na szczęście także coraz więcej jest medialnych doniesień o tym, że ktoś, właśnie dzięki wiedzy, ustrzegł się przed oszustwem.
Informacja o tym, jak rozpoznać deepfake powinna być podstawą naszej cyfrowej samoobrony. Wiedza, jak sprawdzić źródło, jak nie ufać emocjom, jak reagować, gdy coś wygląda zbyt podejrzanie, by było prawdziwe (czy człowiek postury kardynała Rysia i na dodatek w sutannie jest w stanie wykręcić salto?) powinna być równie wszechobecna jak samo zjawisko deepfake.
Krótkie spoty w telewizji i radiu, proste formaty w social mediach, outdoor, lekcje w szkołach i materiały dla seniorów, a także jasne instrukcje co zrobić, gdy trafisz na podejrzane nagranie. Jak reagować, gdy sprawa dotyczy ciebie. UODO przypomina, że na mocy istniejących już norm, jak Kodeks Karny, prawo autorskie czy RODO, można ubiegać się o ochronę prawną, choć zaznacza, że przepisy prawa jedynie częściowo spełniają swoją rolę, bo nie odnoszą się bezpośrednio do specyfiki technologii deepfake.
Nie chodzi też o jednorazową akcję, ale o stałą obecność tematu w przestrzeni publicznej, taką, która z czasem zbuduje nawyk ostrożności. W świecie, w którym niejednokrotnie zbyt łatwo wierzymy własnym oczom, gdzie obraz i dźwięk przestały być dowodem prawdy, jedyną realną linią obrony jest wiedza i świadomość. Umiejętność krytycznego spojrzenia staje się nową pożądaną kompetencją społeczną. Bo zanim uwierzymy własnym oczom, powinniśmy nauczyć się nie ufać im bezwarunkowo.