fot. unsplash.com
O zaletach tej aktywności powiedziano już wiele. Czasem jest wręcz postrzegana jako substytut badania rynku i opinii. Pomimo kolejnych funkcjonalności dynamicznie rozwijających się aplikacji, monitoring to jeszcze nie badania, a wyniki w panelu to nie podane na tacy insighty.
Zobacz również
Nawet jeżeli marka nie jest obecna w sieci, to na pewno są tu jej klienci, którzy dyskutują o swoich wyborach i doświadczeniach. Ignorowanie tego faktu to nie tylko rezygnowanie z wielkiego potencjału komunikacyjnego, ale wręcz biznesowa starta. Rosnąca popularność takiego rozwiązania przyniosła coraz większe zainteresowanie relatywnie prostym i tanim automatycznym monitoringiem internetu. Nisza rynkowa, której od razu nie zagospodarowali dostawcy monitoringu mediów, została dostrzeżona przez nowe firmy, które rozwinęły swoje usługi. Do tej oferty wyrównali z czasem dostawcy tradycyjnego monitoringu mediów, ale także coraz częściej firmy oferujące np. funkcjonalności do zarządzania komunikacją w social media. Wszystko to powoduję, że rynek nie traci swojej konkurencyjności i innowacyjności.
Zmieniające się wyzwania
Rosnąca popularność internetowych influencerów i ich angażowania w działania marketingowe tylko zwiększyła zainteresowanie monitoringiem internetu. Kryteria takie, jak ekwiwalent reklamowy zdają się obecnie nie przystawać do realiów internetowej komunikacji. Zasięgi, generowanie zaangażowania, czyli dane świetnie prezentowane w panelach monitoringu wydają się być odpowiedzią na zaistniałe zmiany. Sięgając do jednego z tematów, który niedawno zdominował polski internet, ocenianie debiutu polskiej edycji magazynu Vogue na podstawie AVE wydaje się dość karkołomne. Specyfika kultury mash upu w internecie to jednak temat, który nie do końca da się łatwo przeanalizować również w aplikacji monitoringu. Przeróbki okładki, które stanowiły swojego rodzaju fad, czyli dość irracjonalne, intensywne i bardzo krótkie zjawisko występujące online to zawiła kwestia kulturowa, którą trudno jednoznacznie ocenić. Posłużenie się prostymi kryteriami przeniesionymi wprost ze świata PR, gdzie publikacje w mediach są klasyfikowane jako pozytywne, neutralne i negatywne nie spełnia swojej roli. Pomijając już fakt, że jeszcze żadna aplikacja nie jest w stanie zapewnić skuteczności automatycznej klasyfikacji sentymentu treści.
Inną trudnością, jaką na swojej drodze spotyka monitoring internetu to język. Złożone funkcjonowanie fraz kluczowych powoduje, że nawet nazwy własne marek nie zawsze dają w pełni relewantne wyniki. Do tego dochodzą wszelkie wyzwania semiotyczne, jeżeli chcielibyśmy monitorować szersze tematy niż jedynie marki własne i konkurencje. Wszystko to powoduje, że aplikacje to świetne rozwiązanie do obserwowania trendu dyskusji wraz z oddziaływaniem prowadzonych działań marketingowych. Ważna jest możliwość identyfikowania kluczowych pozytywnych i negatywnych opinii. Zwłaszcza w tym drugim przypadku, gdzie nierzadko dzięki wczesnemu odnotowaniu wątku można uniknąć kryzysu komunikacyjnego. Niemniej jednak zbudowanie „szerszego obrazka” na dany temat, segmentacji wątków i profili użytkowników wymaga pracy badawczej, której aplikacje nie zastąpią.
#NMPoleca: Jak piękny design zwiększa konwersję w e-commerce? Tips & Tricks od IdoSell
Jak badać w internecie?
Jeżeli sam monitoring nie wystarczy to w takim razie, jak czerpać insighty z treści i aktywności użytkowników online? Żeby pokazać spektrum możliwości, przeanalizujemy trzy rozwiązania (które nie wyczerpują tematu) o różnym poziomie trudności i kosztów realizacji. Większość marketerów zapewne w pierwszym skojarzeniu powie CAWI, czyli ankiety wypełniane na komputerze przez respondentów. To doskonałe narzędzie do pozyskiwania danych ilościowych, z którym styka się każdy Kowalski, chociażby w postaci wyników sondaży politycznych, które często robione są właśnie w oparciu o CAWI. Wyspecjalizowane agencje oferują rozwiązania panelowe, które pozwalają na obiektywne pozyskiwanie grup respondentów o określonych parametrach demograficznych. Ponadto korzystając z rozwiązań omnibusowych można zadać (najczęściej na próbie populacyjnej ok. 1 000 Polaków) nawet pojedyncze pytanie, którego koszt to kilkaset złotych. Prostsze ankiety, zwłaszcza jeżeli interesuje nas własna baza respondentów, można przeprowadzić samemu dzięki wygodnym rozwiązaniom online, jak Formularze Google czy Webankieta.
Słuchaj podcastu NowyMarketing
Dane ilościowe to jednak nie wszystko. Nawet wielkie zasoby przetwarzane w ramach Big Data to nie jest klucz do wszystkich problemów biznesowych. Znana etnografka Tricia Wang określiła Big Data „nową wyrocznią” pełniącą taką samą rolę jak kiedyś te dobrze znane z kultur antycznych. W ostatnim czasie pojawiło się bardziej krytyczne spojrzenie na przetwarzanie dużych zasobów danych, ale wciąż marketerzy, często na zapas, tworzą zupełnie oderwane od siebie „jeziora danych” nie mając pojęcia jakie wnioski chcą z nich wyciągnąć. Wiele o tym mówi prognoza firmy Gartner, która wskazuje, że 60% projektów Big Data rozpoczętych w ub.r. zakończy się niepowodzeniem. Na fali kontestacji bezrefleksyjnego spojrzenia na duże zasoby danych rozwijają się nowoczesne badania jakościowe. W przypadku internetu mowa o netnografii zwanej inaczej wirtualną etnografią. Jest to, najprościej mówiąc, zastosowanie w środowisku internetowym technik i metod antropologicznych, takich jak obserwacja uczestnicząca czy pogłębione wywiady indywidualne. Etnografia wirtualna pozwala na obserwowanie zachowań i dyskursu użytkowników w ich naturalnym środowisku aktywności w sieci oraz wygodną interakcję. Pozwala również na ograniczenie kosztów i czasu badań w porównaniu do tradycyjnej etnografii wymagającej pracy w terenie. Etnografia (zarówno online, jak i offline) świetnie pozwala na głębsze poznanie konsumentów ich emocji i motywacji. W kontekście tego typu badań duże firmy, szczególnie z branży IT (m.in. Intel i Microsoft) zatrudniają w swoich szeregach coraz liczniejsze grono antropologów, a mniejsze mogą skorzystać z usług wyspecjalizowanych agencji.
Wreszcie last but not least (dla purystów językowych słownik PWN zawiera to wyrażenie) stary dobry desk research, czyli analiza danych zastanych lub, jak kto woli analiza źródeł wtórnych. To doskonałe narzędzie do badania internetowego. Pozwoli nam zweryfikować czy kwestia, którą chcemy zbadać nie została już wcześniej odpowiednio przeanalizowana. Tu sprawdza się stara prawda o wyważaniu otwartych drzwi. W sieci możemy znaleźć wiele raportów, artykułów czy dyskusji, które pomogą odpowiedzieć na nasze wątpliwości odnośnie obrazu rynku lub potencjału skuteczności planowanej komunikacji. Jest to obszar, który doskonale pozwala angażować zarówno umysły ścisłe – umiejętności analitycznego myślenia, jak i humanistów – formułowanie wniosków w oparciu o myślenie abstrakcyjne. Jest to szybka metoda zweryfikowania co w internecie mówi się w danym temacie – kto i co mówi, kto jest najbardziej opiniotwórczy oraz jakie jest nastawienie szerszych grup odbiorców do tych przekazów. Jest to metoda, która powinna być przećwiczona w ramach każdej organizacji, a w bardziej skomplikowanych przypadkach można sięgnąć po usługi profesjonalnych badaczy. Co więcej, w tym właśnie przypadku badanie może być wstępnie oparte o wyniki monitoringu internetu. Sam monitoring może być również wykorzystywany w innych projektach badawczych, ale zgodnie z tytułem nie jest to badanie, a wyniki panelu to nie jest indeks insightów.