Korzystanie z technologii deepfake zgodnie z prawem może przynieść ogromne korzyści dla branży reklamowej i marketingu. Obecne narzędzia oparte na sztucznej inteligencji są tak zaawansowane, że potrafią tworzyć w pełni wygenerowane przez AI przekazy marketingowe, które skutecznie przyciągają uwagę odbiorców. Choć deepfake może być atrakcyjnym narzędziem, wiąże się z nim ryzyko prawne, szczególnie gdy chodzi o ochronę wizerunku oraz uniknięcie dezinformacji.
AI Act i DSA a deepfake
AI Act zawiera regulacje bezpośrednio odnoszące się do kwestii deepfake’ów. Chociaż jednocześnie możemy zaobserwować, że unijny prawodawca nie rozbudował szczególnie tematyki deepfake. Według AI Act „deepfake” oznacza wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe.
Zobacz również
Przepisy te są skierowane do użytkowników technologii AI, którzy tworzą obrazy, dźwięki lub nagrania wideo w sposób przypominający rzeczywiste osoby, obiekty, miejsca, przedmioty czy wydarzenia, a także do osób dokonujących manipulacji tego rodzaju materiałami.
W każdej sytuacji, gdy zmodyfikowana treść jest umieszczana w kontekście mogącym sprawić, że odbiorca uzna ją za autentyczną, konieczne jest poinformowanie, iż materiał został wygenerowany lub zmodyfikowany przez system AI.
AI Act nakłada na podmioty stosujące systemy AI, które generują obrazy, treści audio lub wideo stanowiące właśnie treści deepfake, lub systemy, które manipulują takimi obrazami lub treściami, obowiązek ujawnienia, że zostały one sztucznie wygenerowane lub zmanipulowane. Są w tym zakresie wyjątki, np. taki obowiązek nie będzie miał zastosowania w przypadku, gdy treść stanowi część pracy lub programu o wyraźnie przykładowo artystycznym charakterze.
#PolecajkiNM cz. 32: czego szukaliśmy w Google’u, Kryzysometr 2024/25, rynek dóbr luksusowych w Polsce
AI Act nie jest jedynym aktem poruszającym tematykę deepfake.
Słuchaj podcastu NowyMarketing
Akt o usługach cyfrowych (DSA) również odnosi się do zapewnienia przejrzystości treści generowanych przez AI, w tym deepfake’ów. Choć DSA bezpośrednio nie nakłada obowiązków na reklamodawców, ustanawia istotne zasady przejrzystości dotyczące bardzo dużych platform internetowych i wyszukiwarek internetowych. Chodzi tutaj o obowiązek wprowadzenia mechanizmów mitygacji ryzyka i zarządzania nim, co z oczywistych względów wpływa na strategie reklamowe stosowane przede wszystkim na platformach social media. Podmioty te, w zarządzaniu platformami, mają obowiązek jasnego i zrozumiałego oznaczania treści typu deepfake, co generuje konieczność umieszczania wyraźnej informacji, że materiał został wygenerowany lub zmodyfikowany przy pomocy sztucznej inteligencji – na przykład przez dodanie adnotacji „materiał wygenerowany przez AI”.
Takie oznaczenia mają zapewnić odbiorcom pełną świadomość, że treść jest sztucznie wygenerowana. Obecnie już platformy społecznościowe, chociażby takie jak TikTok, wymagają oznaczania wspomnianych treści, co wpływa na obowiązki reklamodawców korzystających z tych mediów.
Inna zagrożenia
W Polsce stosowanie deepfake’ów w reklamie może podlegać dodatkowo przepisom dotyczącym ochrony dóbr osobistych, danych osobowych czy zwalczania nieuczciwej konkurencji.
Dobra osobiste
Wykorzystanie deepfake’a może prowadzić do naruszenia dóbr osobistych, np. poprzez wykorzystanie wizerunku bez zgody, który w Polsce jest chroniony przepisami kodeksu cywilnego, ale też i ustawą o prawie autorskim i prawach pokrewnych. Wizerunek zresztą jest również daną osobową. Naruszenia, o których można mówić w kontekście dóbr osobistych, to możliwość naruszenia prawa do wizerunku, głosu, dobrego imienia czy czci danej osoby. Tworzenie fałszywych „wersji” człowieka bez jego zgody może więc skutkować roszczeniami o naruszenie dóbr osobistych.
Czyny nieuczciwej konkurencji
Stworzenie lub publikacja reklamy zawierającej deepfake może być w niektórych przypadkach traktowana również jako czyn nieuczciwej konkurencji. Zgodnie z Ustawą o zwalczaniu nieuczciwej konkurencji takim czynem jest każde działanie sprzeczne z prawem lub dobrymi obyczajami, jeśli zagraża ono interesom innego przedsiębiorcy lub konsumentów.
W kontekście deepfake, za czyn nieuczciwej konkurencji mogłaby być uznana sytuacja, w której reklama z wykorzystaniem deepfake’a np. wprowadzała konsumentów w błąd. Przykładowo, jeśli materiał wideo lub audio zmanipulowany technologią deepfake prezentuje nieprawdziwe informacje o produkcie, usługach lub samym przedsiębiorcy w celu przyciągnięcia klientów. Mogłaby to być reklama, która sugeruje, że znana postać (np. celebryta) rekomenduje produkt, choć w rzeczywistości nigdy tego nie zrobiła (w tej sytuacji mogłyby zresztą dojść potencjalnie również inne naruszenia, o których dalej).
Prawo autorskie
W kontekście deepfake’u nie można wykluczyć, że będą wykorzystywane elementy stanowiące część czyjegoś utworu w rozumieniu ustawy o prawie autorskim (np. charakterystyczne frazy lub treści autorskie). W takich przypadkach może to prowadzić do naruszenia praw autorskich.
Nieuczciwe praktyki rynkowe
Wykorzystanie deepfake’ów może być uznane także za nieuczciwą praktykę rynkową, jeśli wprowadza konsumentów w błąd. Wprowadzającym w błąd działaniem może być w szczególności rozpowszechnianie nieprawdziwych informacji lub informacji prawdziwych, ale w sposób mogących wprowadzić w błąd.
Odpowiedzialność karna
Technologia deepfake, umożliwiająca tworzenie realistycznych, lecz fałszywych materiałów wideo lub audio, stawia przed polskim prawem karnym nowe wyzwania, jednak obecnie można już zidentyfikować ryzyka, które prawo karne przewiduje.
Aktualne przepisy mogą być stosowane, gdy deepfake’i są wykorzystywane w reklamach do działań takich jak zniesławienie, znieważenie czy oszustwo. W dużym uproszczeniu, na przykład, stworzenie „fałszywego” nagrania promocyjnego, w którym osoba publiczna reklamuje produkt bez swojej zgody, może stanowić przestępstwo zniesławienia lub kradzieży tożsamości (oczywiście przy wyczerpaniu odpowiednich przesłanek). Pamiętajmy, że mamy również do czynienia z odpowiedzialnością karną w związku z naruszeniem innych ustaw, chociażby ustawy o prawie autorskim i prawach pokrewnych.
Praktyczne wskazówki
Aby korzystanie z technologii deepfake było bezpieczne i zgodne z prawem, warto przestrzegać kilku kluczowych zasad, które pomogą uniknąć ryzyka i budować zaufanie odbiorców:
- przeprowadzaj audyty treści deepfake, tj. regularnie oceniaj, czy stosowanie deepfake’ów nie narusza prawa, w tym praw osób trzecich i przestrzegaj obowiązujących norm etycznych oraz prawnych,
- informuj odbiorców – transparentność to klucz. Upewnij się, że odbiorcy wiedzą, iż mają do czynienia z treściami generowanymi sztucznie,
- zabezpiecz zgody i licencje – przed użyciem np. wizerunku, uzyskaj odpowiednie zgody od uprawnionych osób lub skorzystaj z licencjonowanych zasobów,
- monitoruj przepisy prawne – przepisy związane z deepfake’ami i sztuczną inteligencją dynamicznie się rozwijają, warto więc na bieżąco śledzić zmiany, które mogą wpływać na działania marketingowe.
Właśnie dlatego, żeby ułatwić sobie planowanie odpowiednich działań, zachęcamy dodatkowo do pobrania naszej checklisty – Zgodnego z prawem korzystania z AI: https://lawmore.pl/checklistaai/.