Dlaczego nie wiemy, jak działa wyszukiwarka Google?

Dlaczego nie wiemy, jak działa wyszukiwarka Google?
Każdy, kto miał do czynienia z pozycjonowaniem stron i pozyskiwaniem ruchu organicznego z wyszukiwarek wie, że liczy się tylko top10. Pozostałe pozycje są mało istotne z punktu widzenia budowania ruchu. Dlaczego więc przez tyle lat nikt nie znalazł złotego środka, pozwalającego zawsze być na topie?
O autorze
4 min czytania 2019-07-08

Google to potężna technologiczna firma, zatrudniająca świetnych inżynierów, ale ma przeciwko sobie olbrzymią międzynarodową społeczność specjalistów SEO. Dlaczego więc nie wiemy, jak dokładnie działa wyszukiwarka Google? Istnieje tutaj kilka aspektów, wśród których każde z osobna, jak i wszystkie razem sprawiają, że rozgryzienie wszystkich zależności jest niemożliwe do osiągnięcia, a pewne działania są niemożliwe do przeprowadzenia.

Skomplikowany proces rankingowania stron

Częstotliwość wprowadzania zmian w różnych modułach algorytmu sprawia, że niemalże niemożliwe jest wyciągnięcie konkretnych wniosków i korelacji na podstawie obserwacji danych wynikowych całego mechanizmu wyszukiwarki. Warto wspomnieć tutaj o problematyce przeprowadzanych testów i popularnych zestawień czynników rankingowych. Testy przeprowadzane są w ujęciu liniowym: dany czynnik / zestaw czynników wpływa na ranking dla danej frazy. Zestaw czynników możemy zaprojektować, a następnie pobrać dane, porównać i wyznaczyć najważniejsze elementy.

Dlaczego więc nie każdy, kto to zrobi, jest pierwszy na liście wyników? Komplikacje polegają na tym, że wyszukiwarka z dużym prawdopodobieństwem nie bada czynników i nie wycenia ich w sposób przedstawiony powyżej. Jest to mało logiczne z punktu projektowania samego algorytmu, który ma szybko przetwarzać olbrzymie ilości danych, jak i mało wydajne pod kątem katalogowania takich zbiorów.


Prawie 23 000 000 stron w 0,32 sekundy. Brawo Google!

LinkedIn logo
Dziękujemy 90 000 fanom na LinkedInie. Jesteś tam z nami?
Obserwuj

Jak zostać zauważonym przez Google?

Wydajniejszym i lepszym rozwiązaniem może być utworzenie kilkuset rankingów tematycznych, intencyjnych czy rodzajowych. Przy zapytaniu „modne buty”, algorytm sprawdza powiązania tematyczne, związane np. z modą, grafiką, historią oraz e-commerce. W każdym z tych indeksów wybiera najlepsze wyniki dla danej frazy. Następnie określana jest intencja zapytania i na tej podstawie algorytm może określić, ile wyników z jakiej kategorii oraz na jakich pozycjach umieścić w wynikach wyszukiwania.

Słuchaj podcastu NowyMarketing

Takie rozwiązanie pozwala panować nad zrozumieniem intencji zapytań, które w różnych branżach i dziedzinach są często bardzo różne. Taka forma funkcjonowania rankingu wydaje się bardziej zbliżona do wizji, którą prezentuje Google. Jeśli faktycznie tak jest to walka o miejsce w top10 nie toczy się tylko pomiędzy obecnymi w top10, rywalizacja zaczyna się dużo wcześniej, podczas indeksowania w mniejszych katalogach/kontenerach.

NowyMarketing logo
Mamy newsletter, który rozwija marketing w Polsce. A Ty czytasz?
Rozwijaj się

Nie tylko Google decyduje

Osobiście nie widziałem nigdy przypadku, aby jakaś strona zdobywała regularnie pozycje jedna po drugiej, aż dotarła do top1. Większość ruchów odbywa się skokowo, zarówno w górę, jak i w dół. Jeśli nasza strona trafia na 5 pozycję, to pozostałe strony nie przesuwają równo o jedno oczko w dół, jak w rankingu bokserskim. Strona może spadać lub rosnąć skokowo, ponieważ dochodzi do zmiany w indeksie danej pomniejszej kategorii/kontenerze lub zmienia się interpretacja intencji na dane zapytanie. Zmienia się potrzeba użytkownika, więc wyszukiwarka musi dostarczyć wyników z innej kategorii (innych kontenerów) i w innej liczbie niż dotychczas.

Równie ważnym aspektem jest to, że to nie tylko Google ustala jakie są czynniki rankingowe. Robimy to My, a mówiąc My mam na myśli głównie specjalistów i duże agencje marketingowe. Będąc na drugiej pozycji, podczas analizy czynników rankingowych ustalamy, że najlepsza strona na daną frazę posiada dwa nagłówki H2, więc ustawiamy je na swojej stronie. Osoba z poziomu top5 również wykonuje taką analizę i okazuje się, że 2 pierwsze wyniki posiadają po dwa nagłówki H2, więc również je ustawia.

Skala zjawiska sprawia, że taka ilość nagłówków może faktycznie stać się wiążąca dla wyszukiwarki, ponieważ strony z takim układem posiadają największy CTR na daną frazę. Dochodzi zatem do sytuacji, gdzie wymagany może być element, który w pierwotnym rankingu nie miał w ogóle znaczenia.

Ciekawym przykładem tego mechanizmu było ogłoszenie certyfikatu SSL czynnikiem rankingowym. Poparciem tezy były informacje, że już 60%, czy 70% wyników w top10 ma https. Liczba ta nie wynikała z tego, że Google zaczął promować strony z SSL, topowe strony w większości już ten certyfikat posiadały. To użytkownicy potwierdzili, że chcą takie witryny w topowych wynikach, więc reszta chcąc mieć szansę na nawiązanie walki, musiała się dostosować. Dochodziły tutaj również kwestie bezpieczeństwa, ale zasada jest zbliżona.

Intencja kluczem do sukcesu

Dużo skuteczniejszym sposobem badania czynników rankingowych jest próba odtworzenia indeksów w mniejszych kontenerach rankingowych w zależności od zapytania i jego intencji. Dopiero identyfikacja czynników z danego kontenera w połączeniu z wiedzą na temat aktualnie panującej intencji w finalnym rankingu może dać nam pełniejszy obraz sytuacji. Zrozumienie tych elementów jest kluczem do pełnego zaspokojenia algorytmu i osiągnięcia stabilnego ruchu.

Zapewniając pełne spektrum odpowiedzi na dane zapytanie strona będzie bezpieczna, ponieważ nawet w przypadku zmiany intencji zapytania w wyszukiwarce, będziemy mieli prawidłową odpowiedź z każdego kontenera. Przykładem może być popularny serwis informacyjny, który w brutalny, ale skuteczny sposób wpasowuje się w algorytm. Po zapowiedzi filmu wrzuca informacje o produkcji, przeciekach i obsadzie, a przed premierą pojawia się artykuł: „Nazwa filmu, gdzie obejrzeć, w jakim kinie, gdzie za darmo”. Redaktorzy dobrze wiedzą, że intencja zapytania na tytuł filmu ulega zmianie i artykuły, które wcześniej rankowały na tę frazę, teraz nie będą w głównym spektrum zainteresowań użytkowników.

Nie ważne jak, ważne dlaczego

Problematyka związana z podjęciem odpowiedniej metodologii, głębszym zrozumieniem działania zaawansowanych algorytmów, jak uczenie maszynowe i mnogość możliwych modeli środowisk testowych sprawiają, że znalezienie złotego środka na osiągnięcie wysokich pozycji jest niemożliwe. Dlaczego w takim razie jedni specjaliści notują znacznie lepsze efekty niż pozostali? Wynika, to z tego, że w obecnych czasach dobry specjalista nie tyle doskonale rozumie, jak działa wyszukiwarka, ale wie jakie spektrum działań podjąć w celu zabezpieczenia strony pod kątem zmian zachowań użytkowników, trendów oraz aktualizacji głównego trzonu algorytmu.

Chcą w pewien sposób podsumować powyższy tekst, należy przyznać, że najprawdopodobniej nigdy nie zrozumiemy, jak u podstaw działa wyszukiwarka Google. Co ciekawe, w gruncie rzeczy nikomu racjonalnemu na tym nie zależy, bo wyszukiwarka nieustannie zmienia się wraz z użytkownikami oraz ewoluuje. Ważniejsze jest zrozumienie, z jakich elementów ten proces wynika oraz opracowanie trafnych założeń przy próbie wytypowania pomniejszych kontenerów.