#LegalneCzwartki: Prawne ramy odpowiedzialności za błędy AI w kampaniach marketingowych

#LegalneCzwartki: Prawne ramy odpowiedzialności za błędy AI w kampaniach marketingowych
Wraz z rozwojem AI zmienia się sposób prowadzenia kampanii marketingowych i pojawiają się nowe wyzwania prawne. Odpowiedzialność na poziomie treści marketingowych staje się istotnym zagadnieniem, zwłaszcza gdy jej decyzje prowadzą do naruszeń praw konsumentów czy przepisów o ochronie danych osobowych.
O autorze
4 min czytania 2024-10-03

Więcej tekstów z cyklu #LegalneCzwartki przeczytaj TUTAJ >>

Sztuczna inteligencja, choć przydatna, stawia przed firmami nowe wyzwania w zakresie odpowiedzialności i zgodności z przepisami prawa.

Odpowiedzialność za AI – kto może ją ponieść?

Podobnie jak w innych dziedzinach, w marketingu również istnieje potrzeba określenia, kto może odpowiadać za błędy AI. Dyskusje koncentrują się na trzech głównych grupach odpowiedzialnych:

  • twórcach (producentach),
  • operatorach systemów
  • i użytkownikach końcowych.

W kontekście kampanii marketingowych najbardziej interesująca jest oczywiście odpowiedzialność użytkownika (czyli podmiotu korzystającego z narzędzia do tworzenia konkretnej kampanii). Przykładowo taka odpowiedzialność może powstać, gdy użytkownik korzysta z narzędzi w sposób nierozważny, np. naruszając poufność/tajemnicę przedsiębiorstwa.

LinkedIn logo
Na LinkedInie obserwuje nas ponad 97 tys. osób. Jesteś tam z nami?
Obserwuj

Pamiętaj, że stopień odpowiedzialności może się różnić zależnie od konkretnego przypadku. W polskim prawie istnieją różne postaci winy, które mają właśnie wpływ na ocenę odpowiedzialności za popełniony czyn. Dwie główne postaci winy to umyślna i nieumyślna. Poniżej (w dużym skrócie), prezentuję przykłady i wyjaśnienie.

  • Wina umyślna, np. użytkownik, wiedząc, że dane narzędzie AI ma błędy, w zakresie ochrony danych osobowych, mimo to decyduje się na korzystanie z niego, co prowadzi do naruszenia. W tej sytuacji użytkownik działa umyślnie, ponieważ przewiduje możliwość wystąpienia szkody i się na nią godzi, nie podejmując działań zapobiegawczych etc.
  • Wina nieumyślna, użytkownik korzysta z narzędzia do tworzenia kampanii marketingowej, ale nie przeprowadza audytu algorytmu lub nie zleca przeglądu systemu pod kątem zgodności z przepisami o ochronie danych. Uważa, że system działa poprawnie i jeszcze dodatkowo deklaruje na stronie takie zgodności z przepisami. Jednak ostatecznie dochodzi do niezamierzonego naruszenia choćby praw konsumentów, W tym przypadku użytkownik może działać nieumyślnie, ponieważ nie wykazał należytej staranności podczas weryfikacji działania narzędzi AI i dodatkowo zaufał oświadczeniom dostawcy narzędzia.

Jaki inne naruszenia przepisów mogą się pojawić?

Oczywiście istnieje ryzyko poniesienia odpowiedzialności prawnej za naruszenie przepisów chociażby takich, jak RODO. W przypadku naruszeń RODO firma może odpowiadać za niezgodne z prawem przetwarzanie danych osobowych klientów, a już szczególnie jeśli AI stosowane do profilowania czy targetowania reklam nie spełnia wymogów ochrony danych, co może skutkować karami finansowymi.

Słuchaj podcastu NowyMarketing

Firma korzystająca z AI w kampaniach marketingowych musi także unikać działań wprowadzających konsumentów w błąd, który mógłby wpłynąć na ich decyzje zakupowe. Przekazywanie fałszywych lub wprowadzających w błąd informacji, np. o cechach produktu, cenie czy warunkach zakupu, może spowodować, że konsument podejmie decyzję, której inaczej by nie podjął. Nawet jeśli informacje są częściowo zgodne z prawdą, sposób ich prezentacji może nie być klarowny. Takie praktyki są zakazane i mogą narazić na odpowiedzialność prawną, szczególnie w kontekście ochrony konsumentów.

NowyMarketing logo
Mamy newsletter, który rozwija marketing w Polsce. A Ty czytasz?
Rozwijaj się

Pamiętaj również o prawach autorskich. To, że tylko człowiek może być twórcą, już wiesz (więc AI nie ma praw do treści generowanych przez narzędzie, a co za tym idzie, nie może też ich przenieść). Jednak firmy korzystające ze sztucznej inteligencji muszą upewnić się, że narzędzia, z których korzystają, nie generują treści naruszających prawa autorskie, Konieczna jest więc dodatkowa kontrola w tym zakresie.

Dodatkowo, w sytuacji, gdy technologia podważa tradycyjne rozumienie pojęcia autora, kluczowym wyzwaniem staje się znalezienie sposobu, aby utwór stworzony z pomocą AI mógł być chroniony prawem autorskim. Jakie działania warto podjąć w tym celu w ramach pracy działu kreatywnego?

  • Nadzór twórczy – zapewnij ludziom kluczowy wpływ na proces twórczy. AI ma być jedynie narzędziem wspomagającym, co podkreśli wkład człowieka jako autora;
  • Dokumentowanie procesu twórczego – prowadź szczegółową dokumentację, uwzględniając czas poświęcony na tworzenie i decyzje kreatywne podejmowane przez człowieka. Ustalony czas pracy i stopień zaangażowania mogą być istotnymi dowodami w przypadku niezgodności;
  • Modyfikacja wygenerowanych treści – wprowadzaj znaczące zmiany i adaptacje w treściach wygenerowanych przez AI, aby nadać dziełu unikalny charakter wynikający z ludzkiej twórczości;
  • Zawarcie odpowiednich umów – zawieraj umowy, w których precyzyjnie określa się, kto jest twórcą dzieła, jakie prawa przysługują każdej ze stron oraz jak będą one egzekwowane. Umowa powinna wyraźnie wskazywać, kto ma być uznany za autora, co pomoże uniknąć przyszłych sporów;
  • Porównywanie z istniejącymi dziełami – wprowadź system pozwalający na uzyskanie (przynajmniej względnie) potwierdzenia, że generowane dzieło nie jest np. kopią istniejące już utworu.

Pamiętaj również, że w wykorzystywaniu narzędzi AI kluczowym elementem jest nie tylko transparentność w komunikacji z użytkownikami, ale też w komunikacji z klientami.

Należy informować swoich klientów, że niektóre treści są generowane lub wspierane przez systemy AI. Taka informacja musi zostać zawarta w umowie z klientem, dodatkowo oczywiście chodzi o transparentność względem użytkowników końcowych. Może warto dodać w umowie, że klient godzi się na korzystanie z narzędzia X, i że jest w pełni świadomy wynikających z tego działania ryzyk? Taki krok pomoże budować zaufanie, a jednocześnie zwiększy świadomość klientów na temat ograniczeń takiej technologii.

Kluczowe jest przy tym, aby firmy nie tylko korzystały z AI, ale także rozumiały odpowiedzialność, która wiąże się z jej zastosowaniem. Warto wprowadzić w firmie politykę wewnętrzną dotyczącą właśnie użycia AI. Pytania, na które powinien odpowiadać zapis związany z tą polityką, prezentuje poniższa checklista.

  • Czy korzystanie z narzędzia AI wpływa na przetwarzanie i ochronę danych osobowych?
  • Czy i jak można chronić prawa do własności intelektualnej twórczości wspomaganej przez AI?
  • Czy człowiek ma decydujący wkład w proces twórczy, a AI pełni jedynie funkcję wspomagającą?
  • Czy wygenerowane przez AI treści są odpowiednio modyfikowane, aby nadać im indywidualny charakter?
  • Czy korzystanie z AI jest zgodne z licencjami i warunkami użytkowania narzędzia?
  • Czy posiadasz jasne zasady umowne dotyczące autorstwa i praw do twórczości wspomaganej przez AI?
  • Czy sposób korzystania z AI jest zgodny z wewnętrznymi standardami etycznymi firmy?
  • Czy każdorazowo oceniasz ryzyko prawne związane z użyciem AI w projektach twórczych?
  • Czy zapewniasz odpowiednią dokumentację procesów twórczych, w tym wkładu ludzkiego w projekty?
  • Czy AI może wpływać na treść przekazu reklamowego w sposób mogący wprowadzać konsumentów w błąd?

Powyższe zestawienie pozwoli działowi kreatywnemu skutecznie zarządzać ryzykami prawnymi związanymi z wykorzystywaniem narzędzi AI.

Odpowiedzialność za błędy AI w kampaniach marketingowych to złożone zagadnienie, które łączy różne aspekty dziedzin prawa od cywilnego, ochrony danych, praw konsumentów oraz własności intelektualnej. Znaczenie ma przy tym, kto faktycznie dopuszcza się naruszenia oraz jak została uregulowana odpowiedzialność w umowie z klientem lub w regulaminie narzędzia.

PS LegalneCzwartki: Ochrona własności intelektualnej w kontekście AI w marketingu

Świadomość i dbałość o ochronę IP w codziennej pracy marketingowej nie tylko minimalizuje ryzyko prawne, ale także buduje profesjonalny wizerunek agencji i wzmacnia zaufanie klientów, co ma szczególne znaczenie w dobie aktualnej roli AI.