Coraz więcej marek sięga po komunikaty w stylu „stworzone z AI” czy „potwierdzone przez AI”. Pytanie tylko – czy takie hasła realnie zwiększają zaufanie konsumentów, czy raczej budzą dystans? I czy to innowacja, czy kolejny przykład „tech-washingu”?
Opinią podzielili się Jacek Karaś (Creative Lead w Labcon), Martin Winther (Chief Creative Officer w WebTalk) oraz prof. dr hab. Dariusz Jemielniak (profesor w Akademii Leona Koźmińskiego).
Opinie ekspertów

Jacek Karaś
Creative Lead w Labcon
Według badań, jawne informowanie, że treść powstała z udziałem AI, potrafi obniżać zaufanie odbiorców do materiałów prasowych („Or They Could Just Not Use It?”: The Dilemma of AI Disclosure for Audience Trust in News, Toff & Simon, 2024).
Ta sama praca pokazuje jednak, że w części pomiarów efekt bywa neutralny, a decydująca pozostaje wiarygodność nadawcy – reputacja autora i marki waży bardziej niż sama etykieta „AI-generated”.
W komunikacji prospołecznej pojawiają się natomiast wyniki sugerujące spadek skłonności do darowizn po ujawnieniu, że kreacja została przygotowana przez lub z pomocą AI (Effect of disclosing AI-generated content on prosocial advertising evaluation,Baek & Kim & Kim, 2024).
Te rozbieżności nie wykluczają się, ale podkreślają kontekstowość efektu: znaczenie mają kategoria przekazu, oczekiwania publiczności i kapitał zaufania do nadawcy.
Po pierwszej fali entuzjazmu wobec „wszechobecnego AI” branża wróciła do normalności. Rewolucja, która miała „zmienić wszystko”, nie nadeszła w prosty, liniowy sposób. Wiele procesów rzeczywiście przyspieszyło, ale równie wiele pozostało po staremu: briefy wciąż bywają niejednoznaczne, spotkania zbyt długie, a liczba zadań i operacyjnego szumu rośnie. To klasyczna odsłona paradoksu produktywności: narzędzia, które miały uwolnić nas od powtarzalnych czynności i dać więcej przestrzeni na twórczość, częściej podnoszą poprzeczkę oczekiwań, niż realnie zwiększają czas i jakość pracy.
Równocześnie skrajność zastosowań AI utrudnia odbiorcom stabilną ocenę. Z jednej strony mamy nadużycia – w tym głośne przypadki deepfake’ów z udziałem celebrytów. Z drugiej – realne korzyści, jak wsparcie w odkrywaniu leków czy bardziej energooszczędne prototypy napędów. Wnioskiem nie jest sceptycyzm wobec technologii, lecz kompetentna ocena jej wkładu: im lepiej rozumiemy narzędzia i proces, tym trafniej oceniamy, gdzie AI wnosi wartość, a gdzie jest jedynie dekoracją.
W tym sensie bliska jest mi myśl z kampanii Fiverr: chodzi wyłącznie o końcowy efekt. W kreatywności sygnalizowanie „użyliśmy AI” utraciło wartość samą w sobie. Na plan pierwszy wraca to, co zawsze powinno być ważne: dobry insight, pomysł i rzemiosło na wysokim poziomie. Technologia pozostaje środkiem, nie celem.
Na koniec pełna transparentność co do procesu powstawania tego komentarza: w przygotowaniu posłużyłem się narzędziami AI wyłącznie do wyszukania i wstępnego porządkowania literatury dotyczącej odbioru treści i reklam współtworzonych przez AI. Wiarygodność źródeł oceniłem samodzielnie na podstawie miejsca publikacji. Taki disclaimer może minimalnie poprawić nastawienie, ale nie zastąpi jakości argumentów, ani reputacji autora. I dobrze: to właśnie te dwie ostatnie rzeczy powinny ostatecznie przesądzać o zaufaniu do treści.

Martin Winther
Chief Creative Officer w WebTalk
Musimy pamiętać, że w naszej branży główny komunikat powinien zawsze pełnić rolę emocjonalnego zapalnika. Od lat wyzwaniem jest osiągnięcie tego efektu coraz krótszymi formatami. „1-2-3-Gone” to mantra, której używamy przy tworzeniu treści, szczególnie na social media i inne platformy digitalowe. Przy minimalnym skupieniu odbiorcy jego uwagę zdobywa się w ułamku sekundy.
Moim zdaniem informacje w stylu „stworzone z AI” nie budują zaufania do kreatywnej pracy. Komunikat musi być zrozumiały i wzbudzający jednoznaczne emocje. Deklaracje tego typu tylko zaburzają jego klarowność i rodzą więcej pytań. Oczywiście, jeśli prawo tego wymaga, należy o tym informować, ale za pośrednictwem dodatkowych kanałów.
Ludzie budują relacje z markami, a marki to odwzajemniają. Podkreślanie użycia AI niepotrzebnie osłabia tę więź. Nie mówimy przecież w reklamie „to zdjęcie szamponu było retuszowane w Da Vinci Resolve”. Dlaczego z AI miałoby być inaczej?!
Duża część AI jest już używana „na zapleczu”: automatyzacja, zaprogramowane algorytmy, analityka czy inne narzędzia, pomagające efektywnie zarządzać budżetami. Pytanie więc brzmi – czy obligatoryjne deklarowanie użycia AI jest dobre, czy złe?
Termin „greenwashing” jest znany już od lat. AI jest jednak stosunkowo nowe, więc „tech-washing” to śliski temat. Niektórzy widzą w AI przewagę konkurencyjną. I słusznie. Bo to właśnie takie marki i twórcy napędzają dziś komunikację w naszej branży.
Z perspektywy konsumenta jesteśmy jednak dopiero na starcie. Określenie „tech-washing” jest ryzykowne i niejasne. Jeśli marka nie ma naprawdę mocnego uzasadnienia dla użycia AI i nie komunikuje zarówno korzyści, jak i wyzwań w sposób transparentny, lakoniczne deklaracje w stylu „AI-powered” mogą obrócić się przeciwko niej i zaszkodzić relacjom z konsumentami.
Od lat reklama stara się pokazywać możliwie najbardziej idealną wersję świata, czy to w kategorii beauty, FMCG, czy innych. Punkty widzenia są różne, ale cel ten sam – przygotować najbardziej perfekcyjną realizację, która trafi w emocje odbiorcy.
Dziś, gdy traktujemy AI jak partnera, jest jeden element, na który musimy zwracać szczególną uwagę – brand safety. Może to brzmieć jak coś oczywistego, ale tej granicy nie wolno przekraczać. Dopóki produkt pozostaje autentyczny, w zgodzie ze swoją „osobowością” i wartościami, które deklaruje, to nie widzę problemu, by podążać kreatywną drogą ramię w ramię z AI.

prof. dr hab. Dariusz Jemielniak
profesor w Akademii Leona Koźmińskiego
Hasła typu „potwierdzone przez AI” czy „stworzone z AI” mogą działać na odbiorców dwojako. Dla części konsumentów brzmią atrakcyjnie – kojarzą się z nowoczesnością, innowacyjnością i „obiektywizmem” algorytmu. Jednak dla wielu innych budzą raczej dystans, a nawet nieufność: czy AI faktycznie coś potwierdziło, czy to tylko marketingowy slogan? Paradoksalnie, zamiast zwiększać wiarygodność, mogą podsycać sceptycyzm. Ponadto, brak takiej etykiety może wywoływać wrażenie autentyczności, co mogą wykorzystać oszuści.
W praktyce takie komunikaty często balansują na granicy „tech-washingu” – czyli przypisywania sztucznej inteligencji większej roli niż faktycznie odgrywa. To trochę jak z „eko-” czy „bio-” – na początku wywołują efekt „wow”, a potem konsumenci zaczynają pytać o realne podstawy. Jeśli AI jest tylko dodatkiem do procesu, a nie jego istotą, takie oznaczenie może być mylące.
Dlatego granica powinna przebiegać tam, gdzie kończy się transparentna informacja, a zaczyna przesadne uproszczenie. Jeśli faktycznie algorytm miał kluczowy udział w procesie – np. w analizie danych, rekomendacjach czy generowaniu treści – warto to komunikować jasno. Ale jeśli AI zostało użyte marginalnie, lepiej tego nie eksponować, bo efekt może być odwrotny do zamierzonego.
W tym kontekście warto przypomnieć moje Czwarte Prawo Robotyki, które sformułowałem na łamach IEEE Spectrum: „Roboty muszą ujawniać, że są robotami.” Analogicznie – również firmy powinny ujawniać, kiedy i w jaki sposób korzystają z AI. Konsument ma prawo wiedzieć, czy „AI” to rzeczywiste wsparcie procesu, czy jedynie chwyt marketingowy. Inaczej ryzykujemy utratę zaufania i efekt „przesytu AI”, w którym każda kolejna obietnica brzmi coraz mniej wiarygodnie. Ponadto zwiększamy ryzyko dezinformacji, którą z użyciem AI produkuje się bardzo łatwo.