Co zmieni Pingwin 2.1

Co zmieni Pingwin 2.1

Październikowy update algorytmu Google o nazwie Pingwin 2.1 odbił się szerokim echem w całej branży SEO. Jak się okazało tym razem był bardzo skuteczny.

grafika: fotolia.pl

Halo, bileciki do kontroli!

Pełną treść dostaniesz bez grosza,
ale musisz być w naszym newsletterze.

Raz, raz, wpisywać e-mail. Tylko prawdziwy, bo sprawdzę!

partner technologiczny: GetResponse

Tak jak poprzednim razem z dużą siłą uderzył w serwisy internetowe o słabym profilu linków przychodzących (ang. backlinks). Google poinformowało, że aktualizacją zostało objęte 1% zapytań do wyszukiwarki, jednak przeglądając komentarze w serwisach społecznościowych i na forach dyskusyjnych można wnioskować, iż update był bardziej dotkliwy.

Najnowsza aktualizacja algorytmu jest kontynuacją poprzedniej (Pingwin 2.0) i ma na celu wyeliminowanie spamu z wyszukiwarki Google. Sam algorytm skupia się przede wszystkim na linkach kierujących do serwisów www, które przenoszą siłę SEO (Page Rank), próbując odfiltrować te o słabej jakości oraz linki tworzone sztucznie tylko na potrzeby pozycjonowania. Do ważniejszych czynników wpływających na pozycjonowanie zaliczany był tzw. “anchor text”, na którym umieszczony był link do serwisu. To właśnie ten podlinkowany kawałek tekstu “pokazywał” powiązanie tematyczne serwisu www, podnosząc jego ranking w wynikach wyszukiwania. Pozycjonowane w ten sposób strony internetowe były więc linkowane zwykle na kilka konkretnych fraz, brak było innych linków przychodzących, co wskazywało właśnie na nienaturalny profil linków. Wraz z aktualizacją algorytmu (Pingwin) pozycjonowane w ten spośób serwisy straciły swoje wysokie, sztucznie wypracowane, pozycje w wynikach wyszukiwania.

Nienaturalny profil linków w połączeniu ze słabej jakości domenami, z których te linki pochodzą (referring domains) to mieszanka najbardziej podatna na działanie Pingwina. Serwisy linkowane na potęgę z całej masy słabej jakości serwisów, katalogów SEO czy systemów SWL zanotowały największe spadki w SERP. Zbyt duża liczba linków kierujących jedynie z forów dyskusyjnych, komentarzy na blogach czy słabej jakości serwisów tworzonych tylko na potrzeby SEO, bez odpowiedniego wsparcia sygnałami z Social Media oraz odpowiednią proporcją naturalnych linków (np. na nazwę firmy, domeny) to kolejna przyczyna spadków w wyszukiwarkach po wprowadzeniu aktualizacji algorytmu.

W dobie coraz skuteczniejszych działań ze strony Google w celu wyeliminowania pozycjonowania metodami spamowymi, zyskuje na wartości jakość, a nie liczba linków, na których opiera się algorytm wyszukiwarki. Czasy kiedy link przychodzący nie szkodził już odeszły w niepamięć, nie można się dalej kierować zasadą - “każdy link się liczy”. Aby dbać o wysokie i co najważniejsze stabilne pozycje w wyszukiwarce, trzeba dostosować działania SEO do obecnych warunków. Linki powinno się zdobywać tylko z jakościowych, powiązanych tematycznie z witryną serwisów internetowych. Należy zadbać o jak największe zróżnicowanie słów kluczowych, skupić się na content marketingu bardziej niż na linkowanych słowach kluczowych. Warto też zadbać o odpowiednie wsparcie w działaniach SEO ze strony mediów społecznościowych, gdyż właśnie te sygnały zyskują obecnie na sile.

Komentarze

Polecane

Dzięki, link został przesłany

Zamknij

Serdeńko!
Lubisz już nasz fanpage?

Wystarczy kliknąć:

zobacz nasz fanpage >> Zamknij

Niech zapisze się
do newslettera!

Zostaw e-mail
i powolutku strzałeczka na guziczek!

Zamknij