Podstawowe błędy On-Page SEO, których należy unikać

Podstawowe błędy On-Page SEO, których należy unikać
Szukając coraz to nowszych sposobów na pozyskanie ruchu z wyszukiwarek często skupiamy się na działaniach zewnętrznych np. kampaniach PPC czy link buildingu.
O autorze
4 min czytania 2017-02-02

Zapominamy niestety, że rozwiązanie niektórych problemów technicznych wewnątrz witryny może w znaczący sposób przyczynić się do zwiększenia ruchu organicznego w serwisie. Jakie działania mogą zatem realnie wpłynąć na przybliżenie nas do zakładanego celu? 

Audyt On-Page SEO

Na pewno ważnym elementem prowadzonej kampanii SEM jest audyt On-Page SEO. Prezentuje on szereg nieprawidłowości i skupia w sobie wytyczne, które należy wdrożyć, by zoptymalizować serwis pod kątem algorytmów wyszukiwarek. Chodzi tutaj, jak sama nazwa wskazuje, wyłącznie o działania wewnątrz witryny. Dodatkowo przenikają się one z optymalizacją treści np. poprawną strukturą nagłówków Hx czy optymalnie ułożonymi tytułami stron (page titles).

Każdy wzięty na warsztat serwis WWW wymaga wnikliwego sprawdzenia. Podstawowymi problemami po stronie On-Page SEO często są np., 

Wymieniać można długo, jednak skupmy się na tych kilku zagadnieniach, których optymalizacja może przyczynić się do lepszego crawlowania, renderowania i indeksowania podstron witryny, za czym idzie wzrost ruchu bezpłatnego z wyszukiwarek.

Wydajność ładowania stron

Istnieją narzędzia, które pozwolą w prosty sposób zdiagnozować stan witryny pod kątem prędkości ładowania i ogólnej wydajności. Pierwszym z nich jest GTmetrix, który po krótkiej analizie strony prezentuje ogólny pogląd na sytuację dotyczącą wydajności. Już na podstawie tego raportu developer jest w stanie dokonać zmian np. ograniczając liczbę zbędnych zapytań do serwera.

 

Kolejnym narzędziem jest Page Speed Insights od Google:

Choć nie jest ono doskonałe, to daje pogląd na sytuację w serwisie, które błędy z wygenerowanego raportu warto poprawić.

Najnowszym narzędziem od Google jest natomiast Mobile Website Speed Testing Tool, gdzie oprócz testu “mobilności witryny” otrzymujemy również wskazówki wydajnościowe:

 

Dodatkowo w Google Search Console warto obserwować statystyki indeksowania witryny przez boty wyszukiwarki, co również daje pewien obraz tego, czy nie występują problemy z długim czasem ładowania stron:

Na wykresie widać, jak skrócił się czas spędzony na pobieraniu strony przez Googlebota po optymalizacji wydajnościowej.

Zaplanowana strategia indeksacji

Bardzo często zdarza się, że “karmimy” wyszukiwarkę czym popadnie. Od wielu kopii tych samych stron po wyniki sortowania, wyszukiwania wyszukiwarki lokalnej czy nawet koszyk. Skąd wiadomo, co indeksować, a czego nie? Poszukajmy odpowiedzi na przykładzie sklepu internetowego. 

Należy podejść do zagadnienia od strony użytkownika. Jaki jest sens, by user znajdował w Google podstrony koszyka z produktami którymi nie jest zainteresowany. O wiele bardziej wartościowym wynikiem będzie podstrona produktowa czy konkretna kategoria. Podobnie z wynikami sortowania – natrafiając na tę samą kategorię z inaczej ułożonymi produktami raczej nie będzie to użyteczne. Każdy użytkownik chce sortować/filtrować listingi produktów według własnych preferencji, więc o wiele lepszym rozwiązaniem będzie dostarczenie podstrony bazowej.

Aby dobrze zarządzać strategią indeksacji w serwisie można posłużyć się głównie: 

  • meta-tagami robots,

  • plikiem robots.txt,

  • plikiem sitemap.xml (tudzież indeksem sitemap), 

ale też np. poprawnym linkowaniem wewnętrznym, o czym za chwilę.

Mapa witryny dla robotów

Dyrektywy w pliku robots.txt są z reguły tworzone indywidualnie, a w meta tagach robots używamy głównie czterech zmiennych: index, noindex, follow, nofollow. Warto natomiast skupić się na wytycznych dotyczących sitemapy XML. W celu poprawy poziomu indeksowania podstron witryny warto wdrożyć poprawnie zbudowany plik sitemap.xml (lub indeks kilku sitemap). Warto zadbać o segmentację mapy witryny, a mianowicie dla każdego rodzaju podstron tworzyć osobne pliki. Przykładowo warto przygotować odrębny plik z podstronami kategorii czy podkategorii i odrębny plik z postami blogowymi. Aby nowe podstrony były szybciej indeksowane, warto by sitemapa była na bieżąco aktualizowana (również w przypadku usuwania adresów). Może to przyspieszyć indeksowanie nowych zasobów serwisu.

Co ważne, w sitemapach zgłaszamy tylko te adresy URL, które chcemy indeksować (nie mogą posiadać meta-tagu noindex). Koniecznie muszą zgłaszać HTTP status code 200, czyli nie zgłaszamy adresów przekierowanych czy zwracających kod 404. 

 Linkowanie wewnętrzne

Bardzo często “internal linking” jest wymieniany jako jeden z czynników wpływających na rankowanie poszczególnych podstron w wyszukiwarce. Jak zatem z technicznego punktu widzenia zoptymalizować linkowanie wewnętrzne, by pomagało a nie szkodziło?

Po pierwsze należy dbać o aktualizację linków wewnętrznych, wychwytywać te kierujące do stron błędów (najczęściej podstron 404). Zarówno użytkownik, jak i Googlebot przeznaczają określoną ilość czasu na wizytę w danym serwisie. Nie warto nadwyrężać cierpliwości użytkowników i marnować zasobów robotów na kierowanie ich do nieistniejących podstron.

Innym problemem jest linkowanie wewnętrzne przez przekierowanie. W specyfikacji W3C znaleźć możemy rekomendację używania ukośnika “/” na końcu adresów URL (ang. trailing slash). Jak ma się do tego linkowanie wewnętrzne? Jeżeli linkujemy do adresu bez “/” i jest on przekierowany 301, to marnujemy budżet crawlowania Googlebota kierując go do docelowej podstrony właśnie przez przekierowanie. 

Pochodną tego problemu jest “łańcuch przekierowań”, (ang. redirect chain), czyli z jednego adresu URL jesteśmy kierowani na drugi itd. aż do docelowego. Powinniśmy zawsze linkować bezpośrednio do adresu bazowego.

 Jeżeli już o przekierowaniach mowa, warto skupić się na ich poprawnym użyciu, by unikać duplikacji podstron. Nie tylko wystrzegajmy się linkowania przez 301/302 i wielokrotnych przekierowań, ale też zwracajmy uwagę na różne różne adresy URL dla tych samych stron. Przykładowo: 

https:// adresdomeny.pl

https:// www.adresdomeny.pl

http:// adresdomeny.pl

http:// www.adresdomeny.pl

do tego dochodzi jeszcze strona główna pod adresem /index.php, /index.html lub nawet /home. 

W takiej kombinacji, bez poprawnie zaplanowanej strategii indeksacji, wyszukiwarka może zaindeksować kilka różnych adresów wskazujących na tę samą stronę. Oczywiście wynikiem tego będą zbędne duplikaty w indeksie, a użytkownicy raz trafią na adres z https:// a raz bez podpiętego certyfikatu SSL, co również może wzbudzać konsternację. 

Reasumując, należy tworzyć i dostarczać zarówno userowi jak i botowi jeden dedykowany (unikalny) adres dla konkretnego zasobu, a wszystkie inne wariacje adresów przekierować. Jeżeli z biznesowego punktu widzenia ta sama treść musi występować pod dwoma różnymi adresami URL, należy stosować linki “canonical” w nagłówku danej strony:

<link rel=”canonical” href=”https://adresdomeny.pl/podstrona-bazowa/” />

Dbaj o użytkownika, nie zapominając o botach

W artykule przedstawionych zostało kilka podstawowych, częstych problemów technicznych On-Page SEO, z którymi na pewno warto się uporać. Wykorzystując odpowiednie narzędzia i dokonując pełnego audytu analizowanej witryny można wdrożyć wytyczne optymalizacyjne, które w dłuższej perspektywie zwiększą jej widoczność w wyszukiwarce. Dbajmy o pozytywne odczucia użytkowników podczas korzystania z naszych serwisów, ale nie zapominajmy o ułatwianiu pracy robotom wyszukiwarek, by tak samo jak użytkownicy, chciały do nich powrócić.