TikTok Ad Awards 2025

TikTok Ad Awards 2025

TikTok Ad Awards 2025

Ostatni dzwonek na zgłoszenia do konkursu TikTok Ad Awards CE 2025! Termin upływa 24 września br.

Zgłoś kampanię

Trudny temat, łatwy ban. Jak w sieci pisać i mówić o wrażliwych treściach cz. 1 [PORADNIK]

Trudny temat, łatwy ban. Jak w sieci pisać i mówić o wrażliwych treściach cz. 1 [PORADNIK]
W sieci temat trudny oznacza temat ryzykowny. Algorytmy i moderatorzy szybko reagują na słowa kluczowe takie jak „samobójstwo”, „przemoc” czy „alkohol”. Co robić, żeby rzetelnie pisać o wrażliwych sprawach, nie ryzykując bana ani spadku widoczności? Od wykropkowywania po strategiczny język.
O autorze
6 min czytania 2025-09-18

W internecie każde słowo ma wagę – a jego publikacja może uruchomić lawinę konsekwencji. Wystarczy jedno nieostrożne użycie frazy, by algorytm zakwalifikował tekst jako niebezpieczny i ukrył go przed odbiorcami. Tak dzieje się m.in. z tematami przemocy domowej, samobójstw czy uzależnień, które – paradoksalnie – najbardziej potrzebują rzetelnego nagłaśniania.

Twórcy, dziennikarze czy marki stają więc przed dylematem: jak pisać o trudnych zjawiskach, by nie zostać ocenzurowanym przez automat? Jedni uciekają się do kreatywnej autocenzury, np. pisząc „a***hol” zamiast „alkohol”, inni stosują neutralny język i narrację edukacyjną. Ale czy to wystarczy, by przechytrzyć algorytmy i jednocześnie nie spłycić przekazu? Poznaj opinie ekspertów o tym, jak w internecie publikować treści trudne, a jednocześnie dostępne i odpowiedzialne.

Swoimi spostrzeżeniami w pierwszej odsłonie cyklu „Trudny temat, łatwy ban” podzielili się:

  • Dorota Markiewicz, Content Creative w Dentsu Creative,
  • Miłosz Jacyna, Digital Content Managing Director Havas PLAY w Havas Media Network,
  • Tomek Świstuń, Senior Copywriter w DDB Warszawa.

Opinie ekspertów

Dorota Markiewicz
Content Creative w Dentsu Creative

LinkedIn logo
Na LinkedInie obserwuje nas ponad 100 tys. osób. Jesteś tam z nami?
Obserwuj

W dobie zaawansowanych algorytmów moderacji treści każde słowo publikowane w social mediach może zadecydować o losie naszego konta. Tematy związane ze zdrowiem psychicznym, przemocą domową, uzależnieniami czy kryzysami życiowymi stanowią prawdziwe pole minowe dla twórców treści. Błędnie sformułowany post może prowadzić do shadowbanów, drastycznego spadku zasięgów lub całkowitej blokady profilu. Jak więc profesjonalnie mówić o newralgicznych sprawach społecznych, zachowując dostępność dla odbiorców i unikając cyfrowej cenzury?

Algorytmy kontra kontekst: dlaczego sztuczna inteligencja nie rozumie niuansów

Fundamentalnym problemem współczesnej moderacji treści jest ograniczoność systemów automatycznych. Algorytmy działają w oparciu o listy słów kluczowych i wzorce językowe, całkowicie ignorując kontekst wypowiedzi. Dla sztucznej inteligencji nie ma różnicy między artykułem edukacyjnym o profilaktyce samobójstw a treścią potencjalnie szkodliwą dla osób w kryzysie. Systemy automatyczne to obecnie jedyna możliwość moderacji setek milionów treści dziennie, ale ich precyzja w rozpoznawaniu intencji pozostaje niezwykle niska. Algorytm reaguje na „trigger words”, takie jak samobójstwo, przemoc, narkotyki i inne, niezależnie od tego, czy autor świadomie je promuje, czy też szkodzi nieświadomie i bez złych intencji.

Słuchaj podcastu NowyMarketing

Najczęściej flagowane przez algorytmy kategorie słów to:

NowyMarketing logo
Mamy newsletter, który rozwija marketing w Polsce. A Ty czytasz?
Rozwijaj się
  • słownictwo związane ze zdrowiem psychicznym (depresja, lęk, zaburzenia odżywiania),
  • terminy dotyczące przemocy (gwałt, przemoc domowa, stalking),
  • nazwy substancji psychoaktywnych (alkohol, narkotyki),
  • słowa związane z autoagresją (samobójstwo, samouszkodzenie),
  • treści dotyczące seksualności i ciała (seks, piersi, penis).

Strategie językowe: od wykropkowania do kodowania społecznościowego

Znajomość ograniczeń to dopiero pierwszy krok. Prawdziwe wyzwanie polega na opracowaniu skutecznych metod komunikacji, które pozwolą przekazać ważne treści bez narażania się na automatyczne blokady. W ciągu ostatnich lat twórcy treści i społeczności internetowe wypracowali szereg technik, które nie tylko omijają algorytmiczne filtry, ale także zachowują czytelność i dostępność przekazu. Oto sprawdzone sposoby na bezpieczną komunikację o wrażliwych tematach.

Techniki maskowania słów kluczowych

Najpopularniejszą metodą jest zastępowanie kluczowych liter kropkami, gwiazdkami lub myślnikami, czyli tak zwane wykropkowanie strategiczne: „samob.jstwo”, „samob*jstwo”, „samob-jstwo”. Kolejna strategia to stosowanie akronimów i/lub skrótów (często pochodzących z języka angielskiego), które algorytmy trudniej rozpoznają: „SA” zamiast „sexual assault”, „ED” zamiast „eating disorders”.

Kodowanie numeryczne to jeszcze inna technika, polegająca na zastępowaniu liter cyframi: „s4m0b0jstw0”, „pr23m0c”, „n4rk0tyk1”.

Ewolucja języka pod wpływem ograniczeń platformowych

Internet wykształcił własny język eufemizmów, który stale ewoluuje. „Nie żyć”, zamiast „umrzeć”, „krzywdzenie” zamiast „gwałt” czy „używki” zamiast „narkotyki” to przykłady adaptacji językowej do realiów cyfrowej moderacji. Polscy użytkownicy tworzą również własne kody: „smutek bez końca” zamiast „depresja”, „trudne myśli” zamiast „myśli samobójcze” czy „problemy z jedzeniem” zamiast „anoreksja”. Jest to fascynujące zjawisko ewolucji językowej, które zachodzi w czasie rzeczywistym. Społeczności same tworzą kody komunikacyjne, które pozwalają im mówić o trudnych tematach. Obserwujemy żywy przykład adaptacji człowieka do ograniczeń technologicznych.

Wykorzystanie elementów wizualnych

Umieszczanie wrażliwych treści w obrazach pozwala ominąć automatyczne skanowanie tekstu, choć algorytmy OCR (Optical Character Recognition) stają się coraz bardziej zaawansowane. Profesjonalnie przygotowane infografiki edukacyjne nie tylko omijają filtry, ale też zwiększają zaangażowanie odbiorców w porównaniu z samym tekstem. Warto dodać, że platformy zwykle łagodniej traktują treści w formatach takich jak Instagram Stories czy TikTok, choć ta tendencja stopniowo się już zmienia.

Odpowiedzialna komunikacja: etyka ponad algorytmy

W świecie, gdzie treści rozchodzą się szybciej niż intencje ich twórców, odpowiedzialność nie kończy się na unikaniu internetowej cenzury. To dopiero początek, a prawdziwe wyzwanie polega na świadomym projektowaniu przekazu, który nie tylko informuje, ale też wspiera, zwłaszcza osoby w kryzysie. Każde słowo ma znaczenie, a każda publikacja może stać się punktem zwrotnym. Etyczna komunikacja to nie trend, lecz konieczność, dlatego warto znać jej podstawowe zasady.

  • Zasada nadziei i wsparcia: każda trudna treść powinna zawierać element nadziei i konkretne informacje o dostępnej pomocy. Numery zaufania, linki do organizacji wspierających i lokalne zasoby pomocy są obowiązkowe.
  • Unikanie detali: szczegółowe opisy metod, scenariuszy czy narzędzi związanych z autoagresją mogą działać jako instrukcje dla osób podatnych. Skupianie się na przyczynach, pomocy i perspektywach wyjścia z kryzysu jest kluczowe.
  • Inkluzywny i empatyczny język: unikanie stygmatyzującego języka, etykiet i uproszczeń. Zamiast „osoba uzależniona” lepiej używać „osoba doświadczająca uzależnienia”.
  • Weryfikacja faktów: wszystkie statystyki, informacje medyczne i porady powinny pochodzić z wiarygodnych, aktualnych źródeł naukowych.
  • Trigger warning (komunikat umieszczany przed materiałem mogącym wywołać silne emocje lub reakcje u odbiorcy, szczególnie u osób z doświadczeniem traumy, kryzysu psychicznego czy innych trudnych przeżyć): jego celem jest uprzedzenie, że dana treść zawiera wątki takie jak przemoc, samookaleczenia, uzależnienia, śmierć czy inne potencjalnie drażliwe tematy. Dzięki trigger warning odbiorca może świadomie zdecydować, czy chce zapoznać się z materiałem, co zwiększa jego poczucie bezpieczeństwa i komfortu. To ważne narzędzie w odpowiedzialnej komunikacji – szczególnie w mediach, edukacji i działaniach społecznych. Przyszłość moderacji treści, czyli co nas czeka?

Eksperci przewidują rewolucję w podejściu do moderacji treści w ciągu najbliższych 2-3 lat. Następna generacja algorytmów będzie znacznie lepiej rozumiała kontekst i intencje. Systemy oparte na nowszych modelach językowych pozwolą na precyzyjniejszą moderację.

Przewidywane są następujące zmiany, choć czy i jak szybko do nich dojdzie, jest otwartą kwestią: analiza kontekstu semantycznego:

  • algorytmy zaczną rozumieć intencje,
  • personalizacja ograniczeń: powstaną różne zasady dla różnych typów kont,
  • moderacja wspólnotowa: zwiększy się udział użytkowników w procesie oceny treści,
  • transparentność algorytmów: powstaną jaśniejsze wytyczne dla twórców.

Bądźmy wrażliwi i odpowiedzialni

Jak widać, w erze algorytmów i automatycznych blokad rozmowa o trudnych tematach, takich jak kryzysy psychiczne, przemoc czy uzależnienia, wymaga czegoś więcej niż tylko „technologicznego sprytu”. To przede wszystkim odpowiedzialność za słowo i jego wpływ. Każdy komunikat może trafić do osoby, która desperacko szuka wsparcia, i właśnie wtedy staje się on czymś więcej niż treścią – może stać się ratunkiem. Dlatego strategiczna, etyczna komunikacja to nie tylko kompetencja marketingowa, ale także forma cyfrowego aktywizmu. To świadome działanie, które łączy empatię, wiedzę i troskę o odbiorcę, nawet jeśli jest on anonimowy.

Miłosz Jacyna
Digital Content Managing Director Havas PLAY,
Havas Media Network

Komunikacja tematu „trudnego” powinna być zrealizowana w ramach poszanowania dla szerokiego spektrum emocji, z którym ten temat jest związany. Nigdy nie wiemy, w który zakres spektrum wiążącego się z nim problemu trafi nasz komunikat. Dlatego, poza znajomością regulaminu i wytycznych platformy w tym zakresie, moim zdaniem ważniejsze jest zrozumienie szerszego kontekstu społeczno-kulturowego, w którym żyjemy. I tego, w jaki sposób komunikacja danego tematu może być odebrana, a social media w sposób bardzo aktualny oddają to, co czujemy jako ogół społeczeństwa, ale również poszczególne generacje.

Wiedza w zakresie współczesnej narracji na tematy oflagowane jako tematy z ograniczeniami, staje się kluczem do skutecznej komunikacji. Takiej, która nie wygeneruje po pierwsze negatywnych emocji, po drugie nie zostanie ograniczona ze względu na swoją widoczność. Nie podam tutaj magicznego sposobu jak sprytnie hakować algorytm, ale napisze, że najlepszym kierunkiem staje się kreatywność w budowie komunikacji i przekazu.

Jeżeli uznamy to za spryt, to taki spryt chciałbym zobaczyć w swoim newsfeedzie. Nie chcemy słuchać o problemach wprost, ale chcemy angażować się w narracje, które poruszają emocje i robią to w sposób unikalny. Jeżeli całość osadzimy pomiędzy ramą regulaminu, a czymś, co możemy nazwać społeczną uważnością, to mamy przepis na zakomunikowanie dowolnego, „trudnego” tematu.

Tomek Świstuń
Senior Copywriter, DDB Warszawa

Czasami wystarczy prosty zabieg copywriterski, jak w przypadku kampanii „Good Time to Daj”, którą w trakcie tegorocznych rozliczeń podatkowych zrealizowaliśmy dla Puckiego Hospicjum.

W tym wypadku starczyło nam farta (głównie) i oleju w głowach (powtarzam, głównie farta), żeby ukryć „śmierć” za parawanem homonimów. W ten sposób przeniknęliśmy przez algorytmiczne sita, jednak kosztem zrozumienia pewnej grupy ludzi, która nie ma czasu lub kompetencji do rozkminiania naszych kreatywnych zabiegów. Po prostu pojawiały się pytania.

Innym rozwiązaniem jest porzucenie pisania na rzecz wizualnego symbolu, który zaangażujemy do „gadania” za nas tak jak w przypadku kampanii „Uwaga: wrażliwe!” dla Fundacji Słonie na Balkonie. Do opowiedzenia o zgubnym wpływie oczekiwania na dziecięcego psychologa (w Polsce to średnio 265 dni!) wykorzystaliśmy porcelanowe figurki — kruche jak zdrowie dziecka, w trakcie kryzysu psychicznego. Obyło się bez słowa „samobójstwo”. Kolejny punkt dla białkowej inteligencji.

Więcej nie powiem, bo choć projekty w drodze, to na ten moment buzia na kłódkę. Ale jeszcze rzecz, która zasługuje na znacznie więcej uwagi niż te wszystkie sztuczki, którymi staramy się algorytmy omamić. Jest nią pytanie o to, jak i dlaczego dany algorytm staje przeciwko nam, gdy działamy w słusznej sprawie. Dopóki jego stworzeniem kieruje człowiek, zawsze jest ktoś, do kogo możemy się zwrócić, domagając się usprawnień, które przestaną ograniczać dyskusję na wrażliwe tematy. Szanowne big techy, może porozmawiamy?

PS „Stworzone z AI” – hasło, które działa czy zniechęca? [OPINIE]