źródło zdjęcia: pexels.com
I choć za nieuczciwym SEOwcem nikt listu gończego nie wystawi, to musi się on liczyć z tym, że jego działalność wiąże się z ryzykiem nałożenia kar przez Google, które w konsekwencji dotkną przede wszystkim jego klientów.
Zobacz również
Samo wykrycie nieuczciwych praktyk nie jest trudne, a nałożenie kary następuje niemal natychmiastowo. Może odbywać się to w sposób automatyczny poprzez algorytmy lub przez pracownika Google. Kara polega na nałożeniu na daną stronę filtru, który może przyjąć formę np. sandboxu, nie pokazującego strony w wynikach wyszukiwania pod konkretną nazwą lub słowami kluczowymi. Bardziej dotkliwą formą jest rzadko przyznawany permanentny ban.
Jeśli witryna zweryfikowana jest poprzez Google Search Console, wówczas administrator otrzyma mailowe powiadomienie o karze i ma możliwość wysłania prośby o ponowne rozpatrzenie decyzji. O karach nadanych przez algorytm nie jesteśmy w żaden sposób informowani.
W obu przypadkach, właściciel strony zmuszony jest do wycofania zabronionych technik oraz do zgłoszenia pliku ze spisem linków do Google Disavow Tool, które w naszej ocenie szkodzą domenie.
Movember/Wąsopad: jak marki zachęcają do profilaktyki męskich nowotworów [PRZEGLĄD]
Zdarza się, że nasza strona została celowo zainfekowana przez wirusy – świadczy o tym szereg objawów, wskazujących, że „coś złego” dzieje się z naszą witryną. Strona usunięta jest z wyników wyszukiwania, pojawia się na niej nakładka z ostrzeżeniem o witrynie zagrażającej bezpieczeństwu, lub też inne symptomy, które mogą umknąć osobom nie doświadczonym w tej dziedzinie.
Słuchaj podcastu NowyMarketing
Za co Google przewiduje nałożenie kar?
1. Korzystanie z systemów wymiany linków (SWL)
Polega ona na wymianie linków tekstowych pomiędzy stronami WWW w ramach systemu, do którego podpina się swoje strony i za co otrzymuje się punkty, które można wymienić na linki do naszej witryny z innych stron w systemie. Na dłuższą metę nieopłacalne i ryzykowne – wiąże się z nałożeniem filtra przez Google, ponieważ w ramach SWL mnożą się bezwartościowe treści.
2. Ukrywanie treści
Polega to np. na zastosowaniu czcionki w kolorze tła lub zmniejszeniu jej do 1 pixela. W ten sposób „black hatowcy” pozycjonują swoje strony na ukryte hasła i słowa kluczowe, a także zwiększają ilość tekstu. Jest to najpowszechniejsza z nieuczciwych praktyk, za którą można otrzymać bana.
3. Depozycjonowanie
Celowe depozycjonowanie stron konkurencji ma miejsce, ale rzadko i z reguły robią to osoby z małą ilością klientów czy stron, którymi się zajmują. Polega to m.in. na linkowaniu za pośrednictwem spamowych stron, czy atakach DDoS. Ale generalnie nie opłaca się inwestować własnego czasu i środków na depozycjonowanie stron konkurencji. Lepiej przeznaczyć je na pracę nad własną witryną.
4. Włamania na strony internetowe
Na polskim rynku, jak na całym świecie, o wiele częściej zmagamy się z problemami włamań na strony. Hakerzy infekują je wirusami, ingerują w kod źródłowy czy tworzą duże ilości podstron z treściami, które nie są przyjazne naszemu biznesowi. Włamania na strony zdecydowanie są najczęstszą przyczyną nagłych spadków widoczności stron w wynikach wyszukiwania.
5. Wstrzykiwanie fałszywych treści
Fałszywe treści na witrynach pojawiają się w wyniku włamań oraz, niestety, coraz częściej ze względu na brak filtracji przez algorytmy Google. Problem został nagłośniony w trakcie amerykańskich wyborów prezydenckich, gdy na szczycie wyszukiwarek pojawiały się nieprawdziwe informacje na temat wyników i kandydatów. Wiąże się to z szerszym problemem, z jakimi spotykamy się w mediach – post-prawdą, czyli wiedzą opartą na fałszywej treści, przesłankach i emocjach. Google zapowiedział już walkę z fałszywymi treściami, jednak na jej rezultat będziemy musieli jeszcze poczekać.
W przyszłości ograniczenie owych praktyk będzie zależało od algorytmu wyszukiwania Google, który cały czas się zmienia, oraz od świadomości polskich firm w zakresie bezpieczeństwa stron w internecie. Z nieuczciwymi praktykami SEO można walczyć. Przede wszystkim, stronę należy stale monitorować – możemy robić to sami lub skorzystać z usług agencji interaktywnej, posługującej się profesjonalnymi narzędziami, przy użyciu których analizowana jest kondycja naszej domeny. W przeciwnym razie nie zauważymy, że ktoś z zewnątrz poprzez włamanie na stronę zdeoptymalizował nam witrynę lub „wzbogacił” ją o niechciane treści. Strona powinna być podpięta i zweryfikowana w Google Search Console – w razie jej zainfekowania lub usunięcia z indeksu, dostaniemy mailowe powiadomienie. Poza tym warto mieć kilka kopii bezpieczeństwa witryny z różnych okresów. Następnie dobrze jest raz na jakiś czas sprawdzać, czy nie ma nagłego przyrostu linków prowadzących do naszej strony z innych miejsc w sieci.
I wreszcie pamiętajmy o tym, by dbać o kwestie bezpieczeństwa, takie jak częsta zmiana haseł, niepodawanie loginów osobom trzecim, aktualizowanie witryn opartych na rozwiązaniach open source czy niekorzystanie z darmowych wtyczek oraz szablonów do stron.