Tymczasem największa rewolucja nie przyszła ani z przeglądarek, ani z nowych regulacji, ani z deklarowanych przez platformy technologicznych zwrotów. Przyszła z wnętrza organizacji. Zaczęła się wtedy, gdy zespoły – często po raz pierwszy od wielu lat – zajrzały do własnej infrastruktury danych i spróbowały uczciwie odpowiedzieć sobie na pytanie, na czym tak naprawdę opiera się ich pomiar. Szybko okazało się, że ten fundament jest kruchy, posklejany z wielu warstw i w dużej mierze nieuświadomiony. Rok 2025 nie był więc rokiem apokalipsy. Był rokiem odkryć: mało widowiskowych, ale absolutnie kluczowych.
Był też momentem, w którym techniczny dług i lata drobnych zaniedbań przestały być czymś, co można zepchnąć na margines. W dużej mierze dlatego, że świat zewnętrzny nie pozwolił już na udawanie, że wszystko „jakoś działa”. Trzeba było dostosowywać się do CMP-ów, wdrażać Consent Mode v2, a jednocześnie radzić sobie z coraz większym rozjazdem danych między GA4, platformami reklamowymi i CRM-em. To był ten punkt, w którym zamiast kolejny raz odłożyć temat „na potem”, branża zdała sobie sprawę, że bez porządków system zwyczajnie zacznie pękać. Dlatego właśnie 2025 wymusił coś, czego marketing unikał latami: precyzyjną diagnozę stanu danych i pierwsze, naprawdę poważne procesy naprawcze.
Zobacz również
Consent Mode v2 wywołał duże poruszenie nie tylko tam, gdzie wszyscy się spodziewali
Google wprowadził Consent Mode v2 po to, żeby uporządkować zasady przetwarzania danych użytkowników. Mało kto spodziewał się, że ta zmiana stanie się okazją do generalnego przeglądu kontenerów GTM i że w wielu firmach wywoła efekt przypominający otwarcie piwnicy po kilku latach nieużywania. Wystarczyło przejrzeć implementacje, by zobaczyć tagi pamiętające czasy sprzed RODO, stare piksele z kampanii, których nikt już nie prowadzi, lub skrypty dodawane kiedyś „na próbę”. To nie była pojedyncza sytuacja. W audytach, które prowadziliśmy w Cube Group, ten sam schemat powtarzał się niezależnie od skali organizacji. Im więcej warstw miała implementacja, tym trudniej było wskazać, skąd tak naprawdę pochodzą podstawowe sygnały. Consent Mode nie tworzył żadnych problemów — on jedynie zdarł warstwę farby, pod którą od lat odkładały się techniczne osady i decyzje podejmowane „na chwilę”.
Dług technologiczny, problem, który narastał w ciszy
W 2025 roku wiele firm dopiero przy wdrażaniu CMP i Consent Mode v2 odkryło, jak bardzo zaniedbana była ich infrastruktura danych. To nie był problem lokalny – podobne wnioski wynikają z analizy ponad dziesięciu milionów skanów stron przeprowadzonej przez The Markup. W projekcie Blacklight wykazano, że duża część serwisów ma na sobie warstwy trackujących skryptów dodawanych przez lata: stare biblioteki, pozostałości po testach, tagi bez aktywnych powiązań, a czasem rzeczy, których nikt świadomie nie wdrażał.1
To dobrze pokazuje, że dług technologiczny w danych nie jest abstrakcją, tylko skutkiem wielu małych decyzji odkładanych „na później”. A w 2025 nie dało się go już ignorować, bo każdy bałagan w implementacji od razu odbijał się na jakości zgód, modelowaniu, a nawet na tym, jak bardzo rozjeżdżały się dane z różnych platform reklamowych. Coraz częściej też widać było, że część tych „starych skryptów” trudno nazwać długiem – bliżej im do obchodzenia ograniczeń i śledzenia, które po latach nikt nie chciał już firmować swoim nazwiskiem. To jednak historia na osobny rozdział.
W marketingu zawsze wygrywa drużyna. Dlaczego Studio PLAC zmienia się w PLAC360?
Początek końca ery równoległych wersji rzeczywistości
Jednym z najbardziej niedocenionych wydarzeń 2025 roku była rosnąca dostępność integracji kosztowych. Nie było w tym nic spektakularnego, ale zmieniło sposób pracy wielu zespołów marketingowych. Po raz pierwszy właściwie każdy mógł zobaczyć w GA4 dane kosztowe nie tylko z Google Ads, lecz także z Mety i TikToka – wszystko dzięki znacząco uproszczonemu procesowi importu. Platformy udostępniły stabilne łącza API, które sprowadziły konfigurację do kilku kliknięć: wybór konta, zatwierdzenie zakresów danych i gotowe.
Słuchaj podcastu NowyMarketing
Zamiast własnych integracji, time-sheetów i przesuwania liczb między arkuszami, koszty zaczęły pojawiać się tam, gdzie są najbardziej naturalne – obok ruchu i konwersji. Dla wielu organizacji był to pierwszy moment, w którym dane z różnych platform mogły być oglądane w jednym miejscu bez konieczności ręcznego porównywania paneli i eksportów CSV. To przesunęło ciężar rozmowy ze „zestawiania liczb” na faktyczne rozumienie różnic między modelami.
Ten ruch miał swoje przyczyny. Platformy doskonale wiedzą, że w świecie fragmentarycznych danych marketerzy potrzebują wspólnego punktu odniesienia, żeby w ogóle móc ocenić efektywność działań. Meta i TikTok rozumieją też, że jeśli reklamodawca patrzy głównie w GA4, to narracja o „co naprawdę działa” nie może zależeć wyłącznie od danych z ich systemów reklamowych. Dlatego ułatwione importy kosztów stały się elementem szerszej gry o to, żeby wszystkie platformy mogły być porównywane w jednym środowisku – nawet jeśli tym środowiskiem jest narzędzie należące do konkurencji.
Co ważne, ta integracja nie stworzyła jednej wersji prawdy. Wręcz przeciwnie – natychmiast pokazała, jak różnie platformy definiują konwersję, jak odmienne mają okna atrybucji i jak inaczej liczą zdarzenia. Różnice istniały zawsze, tylko dotąd były rozproszone w osobnych panelach i łatwo je było bagatelizować. W momencie, gdy wszystkie dane pojawiły się obok siebie, stały się czytelne i możliwe do przeanalizowania. Organizacje przestały pytać „kto ma rację?”, a zaczęły szukać odpowiedzi na pytanie znacznie dojrzalsze: „z czego wynikają te rozbieżności i jak możemy nad nimi panować?”
To właśnie od tego momentu wiele firm zaczęło traktować pomiar nie jako odbiór danych „z panelu”, lecz jako aktywny proces wymagający wiedzy, decyzji i dokumentacji.
Cookies: powolna erozja, nie katastrofa
O śmierci cookies mówiło się od lat, ale rzeczywistość okazała się znacznie mniej dramatyczna. Safari i Firefox konsekwentnie ograniczały retencję ciasteczek, a Apple regularnie tłumaczył w WebKit Blog, dlaczego skraca ich życie do siedmiu dni, a czasem nawet do 24 godzin. Chrome działa inaczej, ale efekt jest podobny: przeglądarki przestają zachowywać się w sposób jednolity i przewidywalny.
W praktyce ścieżka użytkownika coraz częściej przypomina szkic, a nie fotografię. Brakuje w niej fragmentów, ale kierunek nadal da się odczytać. Modele atrybucyjne nie przestają działać – tracą jednak precyzję, którą branża długo traktowała jak normę. A w 2025 roku, gdy uproszczony import kosztów sprawił, że dane z różnych platform zaczęły pojawiać się obok siebie, ta utrata precyzji stała się wyjątkowo wyraźna. W połączeniu z black-boxowym charakterem modeli GA4 pokazało to, jak ograniczone potrafią być systemy oparte na niepełnych sygnałach.
MCP i AI: po raz pierwszy automatyzujemy nie raportowanie, lecz utrzymanie higieny danych
Model Context Protocol po raz pierwszy pokazał zespołom, jak mogłaby wyglądać analityka, w której sztuczna inteligencja pracuje bezpośrednio na źródłowych danych. Na razie to jeszcze technologia surowa, pełna ograniczeń i pozbawiona spójnej infrastruktury, którą można by wskazać jako „standard”. Żeby naprawdę wykorzystać potencjał MCP, trzeba wejść w customowe wdrożenia, zmierzyć się z kwestiami bezpieczeństwa, dostępów, przechowywania historii analiz.
W tym sensie nie mówimy jeszcze o żadnej powszechnej rewolucji w procesach analitycznych. MCP może służyć dziś przede wszystkim do automatyzacji sanity checków, czyli dokładnie tych zadań, które analitycy wykonywali ręcznie – monotonne, powtarzalne, mało kreatywne, ale absolutnie kluczowe. To właśnie tu pojawiły się pierwsze udokumentowane przykłady: chociażby narzędzia Google wykorzystujące MCP do audytowania poprawności eventów i wykrywania niespójności w implementacjach.
To, co dziś jest najcenniejsze, to nie obietnica pełnej automatyzacji analityki, ale odciążenie zespołów od pracy, która nigdy nie powinna zajmować im większości dnia. W rozmowie o praktycznych zastosowaniach MCP i AI w analityce marketingowej, którą zamieszczam poniżej, szerzej opowiedziałem o tym, jakie możliwości otwiera ta technologia, z jakimi problemami wdrożeniowymi trzeba się zmierzyć i dlaczego jesteśmy dopiero na początku drogi. W 2026 analityczne potworki wreszcie przejdą ewolucję w dojrzałe projekty.
Dane first-party: od chaotycznej ewidencji do świadomego wykorzystania
W 2026 firmy wejdą z doświadczeniem roku 2025, który boleśnie pokazał, że bez spójnej infrastruktury dane potrafią działać jak piasek sypiący się przez palce. Dlatego pierwszy duży krok, jaki wiele organizacji zrobi w nadchodzącym roku, będzie dotyczył danych first-party. Przez lata funkcjonowały one raczej jako doraźne zbiory rekordów w CRM-ach niż jako uporządkowany, strategiczny zasób. Teraz, po miesiącach konfrontacji z własnym technicznym długiem, coraz więcej zespołów zacznie traktować dane użytkowników jak wewnętrzny produkt. A to oznacza zupełnie inną pracę niż dotychczas: wyznaczenie właściciela, ustalenie zasad jakości, kontrolę wersji, cykl życia oraz jasną odpowiedzialność za to, co organizacja faktycznie wie o swoich klientach.
Ta zmiana świadomości ma też praktyczne konsekwencje. Firmy zaczną planować nie tylko gromadzenie danych, lecz również sposób ich łączenia i wykorzystywania – od identyfikacji użytkowników między kanałami, po budowę spójnych segmentów i procesów personalizacji, które dotąd były niemożliwe z powodu rozproszenia sygnałów. W największych organizacjach, takich jak Decathlon czy Allegro, widać już zalążki tego podejścia w publicznych materiałach o transformacji danych. W 2026 ten kierunek przestanie być inspiracją z konferencji, a stanie się koniecznością, jeśli firmy chcą realnie wykorzystać lekcje wyniesione z 2025 roku.
I właśnie tutaj zacznie się otwierać kolejny rozdział – bo traktowanie danych jako produktu szybko pokaże, że potrzebują one stabilnego miejsca, w którym powstają, są przetwarzane i przekazywane dalej. A to prowadzi do technologii, o której w 2025 mówiło się dużo, a w 2026 będzie trzeba zacząć mówić precyzyjnie: server-side tagging.
Celowe wdrożenia Server-side GTM
Drugim obszarem, który w 2026 wyjdzie na pierwszy plan, będzie server-side tagging. W 2025 wiele firm po raz pierwszy zobaczyło, jak bardzo ich przeglądarkowe implementacje przypominają warstwowe archiwum dawnych decyzji – pełne historycznych tagów, prowizorek i skryptów działających wyłącznie dlatego, że nikt nigdy nie odważył się ich ruszyć. Przeniesienie tego chaosu na serwer nie rozwiąże problemu; może go jedynie schować głębiej i podnieść jego koszty. Dlatego właśnie server-side w 2026 stanie się nie testem samej technologii, ale świadomych procesów, które organizacja zbudowała wcześniej.
Tam, gdzie procesy są ułożone, server-side potrafi realnie poprawić jakość i ciągłość danych. Stabilizuje sygnały, pozwala filtrować i standaryzować parametry, lepiej radzi sobie w sytuacjach, w których przeglądarka gubi eventy lub ścieżki sesji, a przede wszystkim pozwala odzyskać przewidywalność w świecie, w którym cookie żyje coraz krócej. To właśnie z tego powodu technologia ta będzie w 2026 coraz popularniejsza – firmy zaczynają szukać spójnych, powtarzalnych danych i choć wiedzą, że nie istnieje jedno idealne „źródło prawdy”, to server-side jest pierwszym miejscem, gdzie można zacząć tę spójność budować.
A to naturalnie prowadzi do kolejnego kroku. Jeśli dane mają być stabilne i powtarzalne, to muszą trafić tam, gdzie można je łączyć, wzbogacać i interpretować w szerszym kontekście. I tym właśnie stanie się hurtownia danych – centrum, w którym organizacje zaczną budować własne podejście do pomiaru i własne modele atrybucji.
Hurtownie i AI, nowy kręgosłup danych w marketingu
Trzecim kluczowym elementem będzie w 2026 rosnąca rola hurtowni danych oraz sztucznej inteligencji. W 2025 firmy zobaczyły, jak bardzo rozjeżdżają się dane między platformami i jak trudno ułożyć sensowną narrację, kiedy każdy system opowiada własną historię. Ta świadomość popchnie organizacje w stronę miejsc, które pozwalają wreszcie spiąć wszystkie sygnały w jedną, logiczną strukturę: dane z kampanii, ruch na stronie, CRM, sprzedaż i backend. BigQuery oraz podobne rozwiązania przestaną być postrzegane jako luksus dużych korporacji – staną się fundamentem, którego nie da się pominąć, jeśli firma chce mówić o analityce w kategoriach dojrzałości.
W projektach, które prowadzimy w Cube Group, widać wyraźnie, że przeniesienie danych do hurtowni często odbiera złudzenie, że liczby z różnych platform da się dopasować do siebie 1:1. W zamian pojawia się dużo cenniejszy efekt: zrozumienie, skąd biorą się rozbieżności, dlaczego każdy system patrzy na użytkownika inaczej i jak w praktyce pracować na sygnałach, których nie da się łatwo połączyć i wspólnie zinterpretować. Właśnie w tym momencie zaczyna się dojrzalsza praca z danymi, kiedy organizacja widzi różnice na poziomie źródeł, naturalnym krokiem staje się budowanie własnych reguł interpretacji. To dlatego właśnie w hurtowniach powstają pierwsze dedykowane modele atrybucji i scoringowe: nie te „otrzymane w narzędziu”, lecz takie, które przenoszą praktyczną wiedzę z pracy na surowych danych na cały ekosystem firmy.
I tu pojawi się największy problem: kompetencje. Tak ambitne podejście wymaga zespołów, które rozumieją nie tylko marketing i narzędzia analityczne, lecz także architekturę danych, modele statystyczne, prawo prywatności, procesy ETL, a często również samo utrzymanie hurtowni. Niewiele firm ma takie talenty in-house. W praktyce większość organizacji będzie potrzebowała wsparcia zewnętrznego – nie dlatego, że „agencje tak mówią”, ale dlatego, że proces jest interdyscyplinarny, skomplikowany i wciąż słabo udokumentowany. To właśnie zespoły agencji, które już zmagały się z podobnymi wdrożeniami, mają dziś przewagę doświadczenia: wiedzą, gdzie pojawiają się błędy, gdzie trzeba dodać proces, a gdzie organizacja przecenia możliwości gotowych narzędzi.
Na tej warstwie zacznie pracować także AI – nie w roli decydenta, lecz opiekuna jakości. To ona będzie pierwszą linią obrony przed błędami, anomaliami i niespójnościami, które tak boleśnie wyszły na jaw w 2025. Rok 2026 nie będzie rewolucją, ale początkiem etapu, w którym dane zaczną działać jak infrastruktura: z procesami, odpowiedzialnościami i miejscem, w którym da się je bezpiecznie i sensownie łączyć.
Podsumowanie: fundamenty, nie fajerwerki
O tym, kto wygra w 2026 roku, nie zadecyduje liczba narzędzi, wielkość stosu technologicznego ani spektakularne wdrożenia. Kluczowe będą fundamenty, które jeszcze w 2025 wydawały się czymś pobocznym: wiedza o tym, skąd biorą się sygnały, kto nad nimi czuwa, jak są dokumentowane i w jaki sposób utrzymywana jest ich jakość. W świecie, w którym dane są fragmentaryczne, a modele działają na niepełnych informacjach, nie jest to już żadna „dodatkowa praca techniczna”. To warunek funkcjonowania całego marketingu.
Reszta – nawet jeśli brzmi nowocześnie i wygląda imponująco – pozostaje tylko zestawem narzędzi. Mogą być użyteczne i potrzebne, mogą usprawnić pracę zespołów, ale nie zastąpią solidnej infrastruktury, na której wszystko powinno się opierać. Bez niej nawet najlepsze technologie są tylko dekoracją, która prędzej czy później zacznie pękać tak samo jak systemy, które próbują przykryć.
Źródła:
1https://themarkup.org/blacklight/2023/05/03/10-million-blacklight-scans-later-heres-what-you-found