grafika: fotolia.pl
Tak jak poprzednim razem z dużą siłą uderzył w serwisy internetowe o słabym profilu linków przychodzących (ang. backlinks). Google poinformowało, że aktualizacją zostało objęte 1% zapytań do wyszukiwarki, jednak przeglądając komentarze w serwisach społecznościowych i na forach dyskusyjnych można wnioskować, iż update był bardziej dotkliwy.
Zobacz również
Najnowsza aktualizacja algorytmu jest kontynuacją poprzedniej (Pingwin 2.0) i ma na celu wyeliminowanie spamu z wyszukiwarki Google. Sam algorytm skupia się przede wszystkim na linkach kierujących do serwisów www, które przenoszą siłę SEO (Page Rank), próbując odfiltrować te o słabej jakości oraz linki tworzone sztucznie tylko na potrzeby pozycjonowania. Do ważniejszych czynników wpływających na pozycjonowanie zaliczany był tzw. “anchor text”, na którym umieszczony był link do serwisu. To właśnie ten podlinkowany kawałek tekstu “pokazywał” powiązanie tematyczne serwisu www, podnosząc jego ranking w wynikach wyszukiwania. Pozycjonowane w ten sposób strony internetowe były więc linkowane zwykle na kilka konkretnych fraz, brak było innych linków przychodzących, co wskazywało właśnie na nienaturalny profil linków. Wraz z aktualizacją algorytmu (Pingwin) pozycjonowane w ten spośób serwisy straciły swoje wysokie, sztucznie wypracowane, pozycje w wynikach wyszukiwania.
Nienaturalny profil linków w połączeniu ze słabej jakości domenami, z których te linki pochodzą (referring domains) to mieszanka najbardziej podatna na działanie Pingwina. Serwisy linkowane na potęgę z całej masy słabej jakości serwisów, katalogów SEO czy systemów SWL zanotowały największe spadki w SERP. Zbyt duża liczba linków kierujących jedynie z forów dyskusyjnych, komentarzy na blogach czy słabej jakości serwisów tworzonych tylko na potrzeby SEO, bez odpowiedniego wsparcia sygnałami z Social Media oraz odpowiednią proporcją naturalnych linków (np. na nazwę firmy, domeny) to kolejna przyczyna spadków w wyszukiwarkach po wprowadzeniu aktualizacji algorytmu.
W dobie coraz skuteczniejszych działań ze strony Google w celu wyeliminowania pozycjonowania metodami spamowymi, zyskuje na wartości jakość, a nie liczba linków, na których opiera się algorytm wyszukiwarki. Czasy kiedy link przychodzący nie szkodził już odeszły w niepamięć, nie można się dalej kierować zasadą – “każdy link się liczy”. Aby dbać o wysokie i co najważniejsze stabilne pozycje w wyszukiwarce, trzeba dostosować działania SEO do obecnych warunków. Linki powinno się zdobywać tylko z jakościowych, powiązanych tematycznie z witryną serwisów internetowych. Należy zadbać o jak największe zróżnicowanie słów kluczowych, skupić się na content marketingu bardziej niż na linkowanych słowach kluczowych. Warto też zadbać o odpowiednie wsparcie w działaniach SEO ze strony mediów społecznościowych, gdyż właśnie te sygnały zyskują obecnie na sile.
#PolecajkiNM cz. 32: czego szukaliśmy w Google’u, Kryzysometr 2024/25, rynek dóbr luksusowych w Polsce
Słuchaj podcastu NowyMarketing