Jest w tym coś szczególnie bezczelnego, bo narzędzie do łączenia, systemowo produkuje warunki do rozłączania. Ten postalgorytmiczny krajobraz to już nie tylko kultura internetu, ale codzienność funkcjonowania biznesu, który wciąż nie odnalazł się w nowej rzeczywistości.
Tytułowe freakfighty nie są tu przypadkiem, ani tanim hakiem uwagi. W zmaganiach najmroczniejszych postaci świata mediów społecznościowych nie chodzi o sport, tylko o ekonomię uwagi: kto głośniej, kto bardziej bezwstydnie, kto sprawniej zamieni własny wstyd na zasięg. Scena patotwórczości działa według prostej, lecz szkodliwej logiki: monetyzujmy przekraczanie granic, a potem udawajmy, że to tylko internet, cyfrowa Narnia, gdzie nic nie dzieje się naprawdę. Mechanizm jest ważniejszy niż personalia: platformy społecznościowe nagradzają to, co wywołuje najszybszą reakcję.
Zobacz również
Dlatego domowe stoły zaczęły przypominać oktagon. Ten obraz zna dziś wiele osób: ciepło i bezpieczeństwo rodzinnego domu zostały zastąpione napięciem, a rozmowa stała się testem na preferencje polityczne i oczekiwaniem, czy ktoś przypadkiem nie dotknie tematu, który odpali łańcuch reakcji. U znajomych czy w pracy bywa apolitycznie, ale za to jest cała infrastruktura teorii spiskowych, iluzji, ukrytych sterowni świata i totalnego braku zaufania do instytucji. To nie są dwa różne kryzysy. To ten sam mechanizm w dwóch kostiumach: moralna pewność, obsesja racji, wrogość wobec niuansu i erozja dyskusji jako wspólnej czynności i wartości.
Reżim algorytmów i ekonomia przewidywalnej reakcji
W debatach o kondycji mediów i jakości dyskusji publicznej często pojawia się wygodna odpowiedź: wszystkiemu winne są media społecznościowe, a w zasadzie algorytmy. To wyjaśnienie jest trafne tylko częściowo. Algorytmy nie lubią ani mądrości, ani głupoty. One nie mają preferencji. Mają funkcję celu. Systemy rekomendacyjne optymalizują czas ekspozycji, częstotliwość interakcji i prawdopodobieństwo powrotu. Złożoność społeczna jest dla modelu nieobliczalna, natomiast emocjonalnie prosty przekaz jest idealny: daje powtarzalny sygnał i przewidywalną reakcję. Gdy moralne wzburzenie okazuje się silnym bodźcem klikalnym, algorytmiczny katalizator przelicza rachunek i robi z niego walutę uwagi.
To nie jest wyłącznie teoria. Badanie Bradye’go i współautorów w PNAS, analizujące setki tysięcy tweetów, pokazało, że moralno-emocjonalny język zwiększał zasięg treści. Jedno dodatkowe słowo tego typu wiązało się ze wzrostem oczekiwanej liczby udostępnień, a średni efekt oscylował wokół kilkunastu do kilkudziesięciu procent, w zależności od tematu i modelu.
Czy w końcu zaczęliśmy traktować dane serio? Rok 2026 da nam odpowiedź
Działka mocnych emocji
Istotną rolę odgrywają tzw. echokomory, które działają jak wirtualna zagroda zamykająca użytkownika w jednolitym przekazie. To nie jest po prostu hermetyczna bańka, to układ, w którym przestajesz konsumować treści po to, by się czegoś dowiedzieć, a zaczynasz je konsumować po to, by potwierdzić swój punkt widzenia. Lwią część pracy wykonujemy tu sami, bo jesteśmy stadni, a podobieństwo poglądów jest społecznie wygodne.
Słuchaj podcastu NowyMarketing
Platformy potrafią tę stadność ułatwiać, porządkować i wzmacniać. Praca Bakshy’ego, Messinga i Adamica w Science, oparta na danych z Facebooka, pokazała, że ograniczenie ekspozycji na treści z przeciwnego obozu ideologicznego wynikało zarówno z algorytmicznego rankingu i dystrybucji, jak i z wyborów użytkowników, przy czym to właśnie te ostatnie były istotnym czynnikiem ograniczającym różnorodność. Echokomora jest więc współprodukcją: my dostarczamy preferencji i klików, platforma serwuje konsekwentnie jednorodną dietę informacyjną. Nie jest to z resztą odosobniona opinia. Kelly Fincham w artykule „Why people believe misinformation even when they’re told the facts”, powołując się na analizy badaczki mediów Alice Marwick, opisuje mechanizm identity-based motivation: ludzie udostępniają dezinformację nie dlatego, że w nią wierzą, ale by zasygnalizować przynależność do grupy.
Mechanizm w swym działaniu jest dziecinnie prosty: technologia została zaprojektowana tak, by maksymalizować bodziec: niekończące się przewijanie, autoplay, powiadomienia push, rankingi i rekomendacje. To zarówno źródło dopaminy, jak i konkretne rozwiązania produktowe, które zamieniają uwagę w zasób do wydobycia. Z czasem dostajesz treści nie tyle zgodne z poglądami, co zgodne z trybem reagowania. Jeśli często reagujesz oburzeniem, dostaniesz oburzenie. Jeśli karmisz się lękiem, dostaniesz lęk. A jeśli pogardą, platforma nie będzie z Tobą dyskutować etycznie, tylko dowiezie kolejną dawkę.
Kantor mentalny
Wydawać by się mogło, że wzrost czasu ekspozycji na informacje powinien oznaczać większą odporność na manipulację. Nic bardziej mylnego. Rynki finansowe od dekad pokazują, że sam dostęp do informacji nie przekłada się automatycznie na lepsze decyzje. Wręcz przeciwnie: im więcej danych, tym większe pole do nadinterpretacji i złudzenia kontroli.
Nasz kantor mentalny działa jak biuro wymiany: emocje są błyskawicznie zamieniane na fakty po kursie korzystnym dla poczucia sprawczości. Uruchamia się lista znanych mechanizmów: efekt potwierdzenia, heurystyka dostępności, motywowane rozumowanie, efekt prawdy pozornej. Dokładnie te same, które napędzają bańki spekulacyjne, opisane przez Daniela Kahnemana.
BBC pokazało, że jedna wiadomość na WhatsAppie przesłana do 20 osób może w kilku krokach dotrzeć do milionów odbiorców. Dezinformacja zyskała logistykę dystrybucji, której wcześniej mogły pozazdrościć koncerny medialne.
Cyfrowa wataha
Najbardziej niedoceniony element układanki dotyczy koordynacji. Social media to infrastruktura synchronizacji zachowań: wszyscy o tym mówią, ten temat trenduje, dziś bojkotujemy, jutro bronimy, a teraz najeżdżamy. Tłum nie potrzebuje spójnej teorii świata. Potrzebuje wspólnego rytmu reakcji.
Młodzi dorośli rzadziej spotykają się offline, mniej socjalizują, a część aktywności społecznych przegrywa z wygodną rozrywką. Nie dlatego, że są zblazowani, tylko dlatego, że środowisko bodźców się zmieniło, a koszty wyjścia z domu realnie wzrosły. Badanie „Gen Z Financial Struggles” pokazuje, że 72% przedstawicieli pokolenia Z odczuwa pogorszenie życia towarzyskiego z powodów finansowych, a 56% nie czuje, by miało życie poza pracą. WHO mówi wprost: samotność jest zjawiskiem masowym, dotykającym około jednej szóstej populacji świata. W takiej konfiguracji plemię online staje się substytutem wspólnoty offline. A plemiona potrzebują wroga.
Biznes na oktagonie
Tu wątek dotyka marketingu, PR i biznesu bardziej bezpośrednio, niż branża czasem chce przyznać. Jeśli podstawową walutą systemu jest przewidywalna reakcja, komunikacja marek naturalnie wpada w pokusę projektowania pod bodziec: szybki zasięg, szybkie oburzenie, szybkie wzruszenie. Zasięgowy arbitraż bywa toksyczny operacyjnie: podnosi ryzyko kryzysów reputacyjnych, skraca horyzont narracji, degraduje zaufanie i premiuje format konfliktu.
W praktyce przekłada się to na koszty organizacyjne: rośnie liczba tarć w zespołach, spada jakość współpracy między działami, a nieporozumienia szybciej eskalują, bo pracownicy różnią się również źródłami faktów. Employer branding i komunikacja wewnętrzna dostają zadanie nierealne: utrzymać minimalne wspólne ramy rozmowy. Zewnętrznie organizacja staje się kolejnym obiektem testów algorytmu, który sprawdza, co daje najszybszy i najbardziej polaryzujący impuls. Mit, że social media niszczą tylko nasze życie prywatne, jest wygodny. One niszczą także instytucje.
Rachunek za antidotum
Jeśli social media są używką dla mas, rachunek za odtrucie nie przyjdzie w formie wielkiej debaty o wolności słowa. Przyjdzie jako seria drobnych awarii: w domach, szkołach, organizacjach i instytucjach. Bez wspólnego minimum zaufania nie da się zarządzać niczym, nawet reputacją. I wracamy do stołu, który stał się ringiem. Freakfight nie jest patologią internetu. Jest streszczeniem logiki systemu, który premiuje reakcję nad rozmowę, pewność nad ciekawość i plemię nad wspólnotę. W sieci po walce możesz wyłączyć aplikację. W domu czy w pracy, nie zawsze da się wyłączyć swoje otoczenie.
Źródła:
- Badanie o „moralno-emocjonalnym języku” i wzroście dyfuzji treści w social media: William J. Brady i współautorzy, PNAS (2017).
- Praca o ekspozycji na treści „drugiego obozu” na Facebook (rola algorytmu vs wybory użytkowników): Eytan Bakshy, Solomon Messing, Lada A. Adamic, Science (2015).
- Tekst o tym, czemu ludzie wierzą/udostępniają dezinformację mimo faktów: Kelly Fincham, The Conversation
- Raport Data & Society Research Institute (Marwick & Lewis, 2017) o mechanizmach manipulacji uwagą i dystrybucją treści;
- Artykuł Marwick (2018) o motywach udostępniania fake news.
- Daphna Oyserman (w tym rozdział o fake news w tomie „The Psychology of Fake News…”).
- Irish Examiner (z atrybucją do BBC).
- „Gen Z Financial Struggles” (72% pogorszenie życia towarzyskiego z powodów finansowych itd.): Talker Research na zlecenie DailyPay
- Lomunikat i raport Komisji ds. więzi społecznych World Health Organization (30 czerwca 2025).
- Daniel Kahneman: „Pułapki myślenia”