grafika: fotolia.pl
Do tego jeszcze e-mail marketing czy też wykorzystanie rozwiązań mobilnych ze szczególnym uwzględnieniem potencjału tkwiącego w tabletach (których ilość w Polsce szacuje się na od pół miliona do miliona). Równolegle z roku na rok przybywa ogromna ilość informacji zostawianych codziennie w wielu miejscach przez użytkowników (big data).
Zobacz również
Wielość kanałów e-marketingowych oraz “udomowienie” i wykorzystanie siły big data, to kwestie, które w tym roku z pewnością będą spędzać sen z powiek. Jeszcze 3 lata temu ilość danych na temat konsumentów można było liczyć w gigabajtach. Obecnie są to już terabajty informacji. Firma IDC oszacowała, iż rynek rozwiązań big data w 2012 roku był wart 5 miliardów dolarów. Ale to dopiero początek ekspansji. W 2013 roku ma być on warty dwa razy tyle, a w 2017 roku – kwota ma zamknąć się sumą 53 miliardów dolarów. Z ostatniego raportu eMarketera “The State of Cross-Platform Ad Measurement: Industry Trends and Current Practices” jasno wynika, iż coraz więcej firm obawia się tych kwestii. W trzy miesięcznym odstępie czasu (licząc od marca do czerwca) liczba podmiotów biznesowych martwiących się tematem integracji big data powiększyła się z 73% do 82%. Podobnie miało miejsce w przypadku zrozumienia czynników wpływających na wzrost ROI (zwrotu z inwestycji) dzięki wykorzystaniu big data. Odsetek tych, którzy podzielają te obawy, poszybował w górę o 5% (z 91% do 96%).
Owa fragmentaryzacja kanałów e-marketingowych, jak i wiedzy na temat samych konsumentów musi wcześniej czy później zakończyć się zintegrowanymi rozwiązaniami. A jeżeli już mowa o konsolidacji promocyjno-sprzedażowej siły oddziaływania w sieci, to trzeba od razu pomyśleć o zupełnie nowych standardach mierzenia tych zespolonych działań. Na obecną chwilę temat może być trudny do zrealizowania z uwagi na ciągłe zmiany technologiczne. Jednym z pojawiających się pomysłów jest połączenie zalet danych zawartych w cookie oraz analizach ankietowych. Inny przykład przynosi telewizja hybrydowa. Specjalne dekodery set-top box, będące podstawą “smart TV”, mogą pozwolić na zbieranie jakościowych informacji na temat zachowań konsumenckich podczas oglądania ulubionego serialu w telewizji, jak i sufrowania po internecie.
Zresztą już to powoli się dzieje. W nowej wersji Kinecta – znanej pod nazwą Projekt Natal – urządzenie będzie odczytywało nastrój odbiorcy. Dzięki czemu użytkownicy, którzy nie będą w dobrym nastroju, mają nie być zdani na oglądanie reklam np. środków poprawiających samopoczucie, tylko np. zakupów poprawiających ich stan ducha. Zresztą kilka tygodni temu zrobiło się głośno o opatentowaniu przez Microsoft rozwiązania, które jest znane pod nazwą Content Distribution Regulation by Viewing User. Ma ono, za pomocą wbudowanych w Kinekcie czujników ruchu i kamery, sprawdzać, czy ilość osób oglądających określony tytuł filmowy zgadza się z wykupioną licencją. W przypadku niezgodności program zażąda uregulowanie opłat za nadprogramową ilość osób oglądających ten film.
#PolecajkiNM cz. 32: czego szukaliśmy w Google’u, Kryzysometr 2024/25, rynek dóbr luksusowych w Polsce
Innym, pojawiającym się na horyzoncie, rozwiązaniem pomiaru efektywności złożonego ekosystemu e-marketingowego to tzw. Data Management Platform (DMP). Są to specjalne miejsca do przechowywania, analizowania i organizowania danych przez wydawców, sieci reklamowe i mediowe. Dzięki tej integracji informacji wewnętrznych (1st party data), jak i zewnętrznych (3rd party data) oraz ich optymalizacji, jest możliwość podnoszenia skuteczności działań w sieci. Z ostatniego badania Radar Research wynika, że 64% marketerów wykorzystuje DMP, ponieważ pozwala to im osiągnąć lepsze ROI. 60% ankieterów przyznało, że wspomniane platformy danych pomagają im w bardziej efektywniejszym wykorzystaniu danych o klientach w przeprowadzaniu jeszcze bardziej jakościowych działań. Z kolei 55% marketerów przebadanych przez Radar Research stwierdziło, że dzięki DMP udaje im się lepiej poznać konsumenckie DNA ich odbiorców: ich nawyki i zachowania. Podobne odpowiedzi można odnaleźć wśród respondentów “The Data Management Platform: Foundation for Right-Time Customer Engagement” autorstwa IAB i Wintenerry Group. Do głównych czynników i korzyści, wynikających z korzystania z DMP, należą: poprawienie efektywności reklam (87%) oraz możliwość zbierania, przetwarzania ważnych i skomplikowanych informacji na temat klientów (81%).
Słuchaj podcastu NowyMarketing
Pojawiają się także pomysły synergii metody ilościowej (odsłonowej) i jakościowej (klikalność) pod nazwą “viewable impression”. Chociaż najbliższa przyszłość nie musi koniecznie przynieść nowe rozwiązania. Wyniki ankiety “2012 TV & Everything Video Survey” Association of National Advertisers (ANA) i Forester Research nie przynoszą większych zmian. Według 47% respondentów przyszłościowym standardem pomiaru działań wielokanałowych będzie: unikalny odwiedzający/ oglądający (47%), Target Rating Points (jaki segment odbiorców miał kontakt z reklamą – 31%) oraz Gross Rating Points (procent oglądalności jednostki reklamy -17%). Podział na metodologię tradycyjną (prasa, telewizja) i nowoczesną (internet) w dalszym ciągu się utrzyma, niestety.
Jednakże pojawiają się głosy, które mogą być światełkiem w tunelu. Jednym z nich jest Suhail Doshi – CEO firmy badawczej Mixpanel. Optuje on, aby standardy odsłonowe i klikalnościowe zastąpić zupełnie innymi formami pomiaru. Zaproponował on trzy rozwiązania. Pierwszym jest miara zaangażowania, np. ilość dodanych dziennie zdjęć na Instagrama. Drugim jest retencja, czyli np. jak często ludzie powracają do produktu i jak z niego korzystają. Ostatnią propozycją Doshiego w kwestii pomiaru efektywności działań marketingowych w sieci jest jednostka “One Key Metric”. Polega na obraniu jednej zmiennej powodującej konkretne działanie. Może to być np. ilość osób, które ściągają aplikację Instagram i umieszczają tam zdjęcia do ilości osób powracających tygodniowo do tego programu i wrzucających swoje zdjęcia. Do swoich rozwiązan CEO Mixpanel chce przekonać tym, iż obecnie pomiar efektywności musi się opierać na ogromnej dynamice zachowań. I trudno mu odmówić racji.
Z pewnością dotychczasowy podział formatów miar efektywności musi się zmienić. Unaocznia to ostatnia głośna sprawa na YouTube. Ten największy serwis wideo na świecie musiał skasować ponad miliard odsłon kanału Universal Music oraz 850 milionów odsłon Sony BMG. Powód był prozaiczny. Okazało się, iż były to fałszywie nabite odtworzenia.
Żeby jednak stworzyć uniwersalną, zespoloną miarę działań marketingowych w wielu internetowych kanałach, branża musi stawić paru wyzwaniom. Jednym z nich jest uporanie się z tzw. “czarną materią” czyli opanowanie danych zawartych w mediach społecznościowych oraz pozostawianych przez użytkowników mobilnych. Kolejna sprawa to skończenie ze zwykłym podziałem na research-segmentacja klientów-prowadzenie działan-optymalizacja-raport i analiza. Optyka działania musi zmienić się o 180 stopni kładąc nacisk na jednostkowe poznanie potrzeb i oczekiwań odbiorcy bez względu z mediów, z jakich on korzysta. Dzięki czemu pozwoli to na zrozumienie jego zachowań z przeszłości, jak i przewidzenia tego, jak one będą wyglądały one w przyszłości; jak one będą się kształtować.
Wszystko mogą zmienić przez… rosnące wydatki. Według danych eMarketera w 2012 roku globalne wydatki na sferę promocyjno-sprzedażową wyniosły 518 miliardów dolarów (wzrost o 5%). W tym roku przewiduje się, iż osiągną one wartość 545 miliardów dolarów. Większe środki dostępne na rynku, to większa presja na firmy e-marketingowe. Będą one musiały wyróżnić się jeszcze bardziej czymś szczególnym. Tym czymś będzie z pewnością opracowanie autorskich rozwiązań związanych z efektywnością działań w złożonej sferze internetowego marketingu. Więc, kto pierwszy opracuje tego rodzaju technologię, do tego będzie należały największe budżety. Jak i najbliższe lata w sferze e-marketingu.