Spójrzmy na AI Act. Rozporządzenie wprowadza model oparty na analizie ryzyka. Nie rozwiązuje jednak najważniejszego problemu branży marketingowej – rozproszonej odpowiedzialności w łańcuchu wartości: od dostawcy i integratora, przez agencję i markę, po platformę, pracownika czy freelancera. Dlatego wyzwaniem nie jest samo „opisanie” odpowiedzialności, lecz ustalenie, kto i w jakim zakresie ją ponosi.
Cztery wymiary odpowiedzialności za AI
Odpowiedzialność za AI nie pojawia się w jednym miejscu ani w jednym momencie. Rozciąga się między różnymi obszarami prawa, podmiotami i etapami procesu decyzyjnego. Można ją uporządkować w czterech kluczowych wymiarach – przedmiotowym, podmiotowym, czasowym i dowodowym. To one w praktyce przesądzają o poziomie kontroli nad ryzykiem związanym z wykorzystywaniem sztucznej inteligencji.
Zobacz również
1. Wymiar przedmiotowy – za co odpowiadamy?
Ten wymiar odpowiada na pytanie: co w praktyce może zostać naruszone w wyniku użycia AI? To od niego zależy, z jakim rodzajem konsekwencji organizacja może się zmierzyć – finansowych, reputacyjnych lub regulacyjnych. W marketingu najczęściej chodzi o:
- twórczość i własność intelektualną – czy treści generowane przez AI podlegają ochronie i czy nie naruszają cudzych praw,
- dobra osobiste – deepfake, bezprawne wykorzystanie wizerunku, naruszenie dobrego imienia,
- dane osobowe – niezgodne z prawem profilowanie, brak podstawy przetwarzania, brak oceny ryzyka,
- zasady komunikacji rynkowej – wprowadzanie w błąd, naruszenie prawa reklamy np. produktów regulowanych,
- zgodność regulacyjną – obowiązki wynikające z AI Act, w tym transparentność i odpowiedni poziom wiedzy w organizacji.
2. Wymiar podmiotowy – kto odpowiada?
InPost uruchamia asystenta zakupowego AI
Obecnie prawo nie uznaje AI za podmiot odpowiedzialności. Odpowiedzialność zawsze ponosi człowiek lub organizacja. W praktyce rozkłada się ona między uczestnikami łańcucha wartości:
Słuchaj podcastu NowyMarketing
- organizacją wdrażającą narzędzie AI (deployer),
- organizacją zlecającą działania marketingowe,
- zarządem,
- pracownikami,
- podwykonawcami,
- dostawcą modelu (provider).
Odpowiedzialność nie znika – może się jedynie przesuwać między tymi podmiotami. Co więcej, umowa np. z dostawcą, może maksymalnie ograniczać jego odpowiedzialność. W sporze podstawowe pytanie brzmi: czy problem wynikał z samego narzędzia, z decyzji o sposobie jego użycia, czy z braku należytej staranności? Organizacja może odpowiadać także za samo to, kogo wybiera jako partnera lub dostawcę (tzw. wina w wyborze).
3. Wymiar czasowy – kiedy powstaje odpowiedzialność?
Odpowiedzialność za AI nie powstaje wyłącznie w momencie publikacji. Pojawia się na
różnych etapach procesu:
- na etapie inputu – np. przy wprowadzeniu danych osobowych do modelu lub wykorzystaniu treści chronionych,
- na etapie generowania outputu – gdy brakuje nadzoru człowieka lub weryfikacji wygenerowanych treści,
- na etapie reakcji na incydent – gdy organizacja nie podejmuje działań naprawczych lub nie wycofuje problematycznych treści.
Kluczowe staje się ustalenie, na którym etapie doszło do błędu oraz czy w tym momencie dochowano należytej staranności.
4. Wymiar dowodowy – kto i jak wykaże należytą staranność?
W sporze znaczenie mają nie deklaracje, lecz dowody. O wyniku postępowania często przesądza to, czy organizacja jest w stanie wykazać, że działała w sposób kontrolowany i odpowiedzialny.
W praktyce mogą o tym świadczyć m.in.:
- logi decyzyjne,
- dokumentacja szkoleń i poziomu AI literacy w organizacji,
- klasyfikacja ryzyka,
- procedury akceptacyjne,
- dokumentacja ingerencji twórczej człowieka w proces generowania treści.
Bez takiej dokumentacji nawet najlepiej zaprojektowany regulamin pozostaje jedynie deklaracją.
Te cztery wymiary nie zamykają całego tematu AI Governance. Wyznaczają jednak obszary, na które warto zwrócić uwagę. Organizacje próbują je regulować na różne sposoby – nie zawsze jednak adekwatnie.
AI Governance – o czym pamiętać przy projektowaniu zasad
Proporcjonalność jako strategia anty-shadow AI
AI Governance powinno być proporcjonalne do poziomu ryzyka. Nie każde użycie AI wymaga wieloetapowej autoryzacji – nadmierna formalizacja bywa równie ryzykowna jak jej brak.
Przykładowo zbyt restrykcyjne zasady sprzyjają „partyzantce pracowniczej” – korzystaniu z nieautoryzowanych narzędzi poza oficjalnym obiegiem organizacji. W praktyce oznacza to sięganie po darmowe lub prywatne rozwiązania, nad którymi firma nie ma kontroli. Tymczasem takie systemy często przyznają dostawcom szerokie prawa do inputu i outputu użytkownika.
Temat proporcjonalności możemy zaadresować na wiele sposobów, a przykładowo
stosując trójstopniowe podejście:
- niskie ryzyko – brainstorming, generowanie pomysłów, korekta językowa,
- średnie ryzyko – proste treści marketingowe, wymagające tylko weryfikacji merytorycznej,
- wysokie ryzyko – dane klientów, reklama regulowana, projekty będące przedmiotem
formalnego audytu.
Zasada „licz na siebie”
Jeżeli liczymy na to, że odpowiedzialność będzie dzielona z innymi „winowajcami”, warto się nad tym zastanowić.
Roszczenie wobec dostawcy narzędzia często okazuje się niemożliwe, ponieważ:
- licencje zawierają limity odpowiedzialności,
- regulaminy wyłączają gwarancję poprawności działania systemu,
- dochodzenie roszczeń wobec podmiotów zagranicznych w państwach ich siedziby bywa kosztowne i niepewne.
Jeżeli chodzi o pracowników, to prawo ogranicza często ich odpowiedzialność do wysokości trzykrotności wynagrodzenia. A nawet jeżeli w organizacji część osób jest na umowach B2B – to powinniśmy przyjąć, że po prostu realnie nie będą w stanie odpowiadać za szkodę.
W praktyce oznacza to, że organizacja korzystająca z AI najczęściej ponosi zasadniczy ciężar odpowiedzialności. „Licz na siebie” nie jest tu figurą retoryczną, lecz operacyjnym założeniem, które powinno być uwzględnione przy projektowaniu AI Governance.
Regularność – bo procesy nie są statyczne
AI Governance nie jest dokumentem, który tworzy się raz. Wymaga stałej aktualizacji i praktycznego stosowania. Warto więc pomyśleć o:
- cyklicznych przeglądach regulaminu AI pod kątem zmian prawnych i technologicznych,
- testach praktycznych (np. symulacje incydentów),
- systematycznym podnoszeniu poziomu AI literacy w organizacji – zgodnie z obowiązkami wynikającymi z AI Act,
- regularnym sprawdzaniu, czy nie ma potrzeby uwzględnienia nowych narzędzi AI, w tym w celu wykluczenia shadow AI,
- wykorzystywaniu case studies w komunikacji wewnętrznej, aby zasady nie pozostawały wyłącznie na papierze.
Martwy regulamin korzystania z AI nie zarządza ryzykiem.
Własność intelektualna – ryzyko niedoszacowane
W branży kreatywnej coraz częściej pojawia się temat due diligence kampanii opartych na AI. Ryzyko powstaje w szczególności wtedy, gdy: treści wygenerowano bez istotnego wkładu twórczego człowieka,
nie udokumentowano procesu twórczego (np. poprzez rejestr ingerencji twórczej), brak jest wyraźnej, następczej ingerencji człowieka w wygenerowany materiał.
W takich sytuacjach materiał może nie spełniać przesłanek „utworu” w rozumieniu prawa autorskiego. Konsekwencją może być brak możliwości skutecznego przeniesienia praw majątkowych na klienta oraz osłabienie wartości IP w procesach inwestycyjnych lub M&A.
Bez odpowiednich działań organizacje mogą budować wartość marki na treściach, których w sensie prawnym nie posiadają. Masowa produkcja materiałów z wykorzystaniem AI w praktyce prowadzi do zasilania domeny publicznej, zamiast do budowania chronionych aktywów. Nie jest to jednak scenariusz nieunikniony. Świadome zarządzanie AI pozwala projektować proces twórczy w taki sposób, aby zachować możliwość ochrony powstałych zasobów i to nie tylko za pomocą prawa autorskiego.
Odpowiedzialność jako przewaga konkurencyjna
W najbliższych latach przewagą konkurencyjną organizacji kreatywnej będzie umiejętność wykazania, kto podjął decyzję, na jakiej podstawie, pod jakim nadzorem i przy jakiej dokumentacji twórczej. Transparentność procesu staje się równie istotna jak sam efekt. Zarządzanie organizacją kreatywną w erze AI wymaga od liderów porzucenia myślenia o sztucznej inteligencji jako o „magicznym pudełku” na rzecz traktowania go jak podwykonawcy o podwyższonym ryzyku prawnym.
Ten tekst ukazał się w Trendbooku 2026. Ponad 160 stron inspiracji o trendach w marketingu na kolejnych 12 miesięcy. Inspirujące rozmowy, wnikliwe insighty i kreatywne case studies, które zainspirują cię do działania. Pobierz i przeczytaj już dziś.
