Google Search Console, czyli jak analizować i optymalizować witrynę z pomocą Google?

Google Search Console, czyli jak analizować i optymalizować witrynę z pomocą Google?
Prowadzenie działalności e-commerce w dużej mierze zależne jest od poczynań i rozwiązań jednej firmy, której silnik wyszukiwarki obsługuje 97,72% rynku w Polsce [1] – Google. Wyszukiwarka ta, daje możliwość dotarcia do klienta poprzez płatne reklamy oraz organiczne wyniki wyszukiwania.
O autorze
8 min czytania 2017-08-03

fot. StockSnap.io

Obsługa płatnych rozwiązań z oferty Google jest szczegółowo opisana, co (mimo częstych zmian w systemie) daje dość dokładny pogląd o realizowanych działaniach.

Inaczej wygląda to w przypadku wyników organicznych. Znaczna część czynników, które są brane pod uwagę, jest znanych, ale to, w jakim stopniu pojedynczy czynnik ma wpływ na wyniki lub kiedy i jak te czynniki zostaną zmienione, stanowi w większości przypadków tajemnicę. Zmiany w algorytmie wyszukiwarki oraz ocena serwisu przez roboty Google warunkują pozycje serwisu w organicznych wynikach wyszukiwania. Każda szansa na poszerzenie wiedzy w tym zakresie jest na wagę złota, dlatego tak istotnym narzędziem dla każdej firmy działającej w Internecie jest Google Search Console (dawniej Google Webmaster Tools).

Google Search Console jest darmowym narzędziem. Wykorzystywanie go w codziennej pracy marketingowca pomaga nie tylko utrzymać wypracowywane pozycje serwisu dla kluczowych fraz w wynikach wyszukiwania Google a wraz z nimi ruch i konwersję, ale też zwiększać CTR z organicznych wyników wyszukiwania. Niejednokrotnie dane, jakie to narzędzie oferuje, pozwalają zminimalizować straty i skrócić okres spadków sprzedaży wynikających z błędów technicznych w serwisie.

LinkedIn logo
Na LinkedInie obserwuje nas ponad 100 tys. osób. Jesteś tam z nami?
Obserwuj

Po pierwsze: informacja

Dostęp do danych na temat stanu domeny umożliwia wykorzystanie tych informacji do optymalizacji serwisu. Przy działalności on-line wiedza o ewentualnym ograniczeniu widoczności domeny w wynikach wyszukiwania jest niezwykle ważna. Bez tego portal tematyczny, serwis firmowy czy sklep internetowy może nie tylko z dnia na dzień stracić większość ruchu a z nim klientów, ale też taki stan może utrzymać się bardzo długo. Monitorowanie komunikatów w sekcji „Ręczne działania” oraz „Problemy dotyczące bezpieczeństwa” pozwala szybko reagować w razie problemu i ograniczać straty firmy.

Słuchaj podcastu NowyMarketing

Google Search Console zawiera sekcję „Wiadomości”, w ramach której przesyłane są informacje o wykrytych błędach, powiadomienia o problemach lub karach oraz wiadomości o możliwościach wykorzystania dostępnych narzędzi albo zalecanej aktualizacji oprogramowania.

NowyMarketing logo
Mamy newsletter, który rozwija marketing w Polsce. A Ty czytasz?
Rozwijaj się

Ważną zakładką jest sekcja „Ręczne działania”, gdzie pojawiają się informacje na temat nałożonych na domenę kar:

  • za nienaturalne linki przychodzące lub wychodzące z serwisu,
  • za treści w serwisie niezgodne z wytycznymi Google dla webmasterów (mało treści, treści o niewielkiej lub żadnej wartości, ukryty tekst, mnożenie słów kluczowych, maskowane grafiki),
  • za różne formy spamu (czysty spam, spam tworzony przez użytkowników, spamerskie darmowe hosty, spamerska struktura znaczników).

Komunikaty nie tylko informują o problemie, o którego istnieniu nie byłoby wiadomo bez konta i zweryfikowania domeny w Google Search Console, ale też określają zakres kary i informują o dalszych krokach, które należy podjąć w celu jej zdjęcia. Nałożenie większości kar często jest jednoznaczne z zauważalnymi spadkami pozycji domeny a w efekcie też ruchu z organicznych wyników wyszukiwania, dlatego ich identyfikacja i podjęcie działań naprawczych jest kluczowe. Usunięcie kary i powrót na pozycje sprzed jej nałożenia często nie jest łatwe, ale sposób, w jaki można to osiągnąć, jest jednoznacznie wskazany – potrzebne jest poprawienie wskazanych w komunikacie problemów i zgłoszenie prośby o ponowne rozpatrzenie.

Zakładka „Problemy dotyczące bezpieczeństwa” powinna rozpoczynać się słowami „Obecnie nie wykryliśmy żadnych problemów z bezpieczeństwem związanych z treściami Twojej witryny”. Każdy inny komunikat to informacja na temat problemów z bezpieczeństwem serwisu i wskazanie do podjęcia szybkiej reakcji.

Wykryty atak niesie niekorzystne konsekwencje: problemy z administracją serwisu oraz wyświetlanie przy domenie komunikatu o istnieniu niebezpieczeństwa, co skutecznie odstrasza potencjalnych klientów przed wejściem na serwis z wyników wyszukiwania. Informacja o ataku hakera może dotyczyć wygenerowanego spamu lub złośliwego oprogramowania wgranego w serwisie. W obu przypadkach po diagnozie problemu (warto wykorzystać również inne dostępne narzędzia jak polecane przez Google stopbadware.org) należy usunąć efekty ataku (np. usunąć treści zainfekowanych podstron i zadbać o ich wyindeksowane) i wyeliminować luki w zabezpieczeniach, a następnie przesłać prośbę o ponowne sprawdzenie domeny z dokładnym opisem podjętych działań.

W sekcji „Narzędzia internetowe” dostępna jest też zakładka „Raport na temat widoczności reklam”, w której wyświetlane są informacje o zgodności reklam z zasadami „Standardów lepszych reklam” w wersjach na komputery i urządzenia mobilne. W przypadku problemów z projektem witryny, kreacją lub innych rażących naruszeń dotyczących reklam należy poprawić wskazane błędy i zgłosić prośbę o ponowną weryfikację witryny.

Po drugie: analiza

Bieżąca, systematyczna analiza danych pozwala podejmować rozsądne decyzje, w pełni wykorzystywać możliwości i działać szybko, niejednokrotnie z wyprzedzeniem zapobiegać większym problemom, mogącym powodować straty. Google Search Console, a przede wszystkim zakładki „Udoskonalenia HTML” i „Błędy indeksowania”, daje możliwość analizy ważnych parametrów stanu serwisu oraz łatwego odnajdywana i eksportowania listy błędów we wdrożonych ustawieniach strony.

Problemy takie jak liczne wewnętrzne kopie treści lub niedopilnowane przekierowania, o których informują błędy indeksacji mogą doprowadzić do spadków pozycji serwisu na kluczowe dla firmy frazy w wynikach wyszukiwania Google a w efekcie niższej sprzedaży.

Dane strukturalne pozwalają lepiej zrozumieć strukturę serwisu robotom wyszukiwarek, co ułatwia interpretację treści podstron. Oznaczenia elementów serwisu wykorzystywane są również do wzbogacenia prezentacji strony w wynikach wyszukiwania, wzbudzając większe zainteresowanie użytkowników i zwiększając CTR dla serwisu. Ich poprawną implementację oraz wszystkie znalezione przez roboty Google błędy prezentuje zakładka „Dane strukturalne”.

Wykorzystanie oznaczeń danych strukturalnych dla takich elementów jak: przepisy, wydarzenia, produkty, recenzje lub kursy będzie umożliwiało prezentację wyników wyszukiwania dla wyszukań na urządzeniach mobilnych w postaci bardziej rozbudowanych i ciekawszych wizualnie kart informacyjnych (czyli rozbudowanej formy prezentacji wyników wyszukiwania). Podobnie jak w przypadku zakładki „Dane strukturalne” statystyki poprawnie wdrożonych kart informacyjnych oraz błędy we wdrożonych oznaczeniach widoczne będą w zakładce „Karty rozszerzone”. Taka forma prezentacji wyników dla serwisu do niedawna była dostępna dla przepisów, filmów, kursów online i restauracji dla zapytań anglojęzycznych w Google.com, a od marca 2017 jest wprowadzana globalnie.

Zakładka „Udoskonalenia HTML” pozwala przede wszystkim określić tagi „title” oraz meta tagi „description” wymagające poprawy ze względu na: ich duplikacje między podstronami, brak wypełnienia, niewystarczającą długość czy zbyt ogólne treści lub brak możliwości zaindeksowania. Prawdziwą zaletą tego raportu jest jednak możliwość analizy podstron z powielonymi tagami title lub description. Kopie tych tagów na różnych podstronach często wynikają z powielenia tych samych treści dla różnych adresów URL w serwisie (na przykład w wyniku indeksacji parametrów filtrowania lub sortowania) i mogą stanowić przeszkodę w wypracowaniu lub zagrożenia dla wypracowanych efektów pozycjonowania w przypadku aktualizacji algorytmów oceniających jakość treści w serwisie.

Przyspieszone strony mobilne (AMP) to ogólnodostępny standard tworzenia szybko ładujących i poprawnie wyświetlających się na urządzeniach mobilnych stron internetowych. Błędy w implementacji standardu AMP (Accelerated Mobile Pages) i podstrony, na których one występują, dostępne są w zakładce „Przyspieszone strony mobilne AMP”.

Strony internetowe, w których pojawiają się problemy z obsługą na urządzeniach mobilnych, mogą zajmować niższe pozycje przy wyszukiwaniu na smartfonach. Zapytania na urządzeniach mobilnych stanowią coraz większy udział we wszystkich wyszukiwaniach [2], dlatego poprawa błędów wyświetlanych w zakładce „Obsługa na urządzeniach mobilnych” jest coraz ważniejszym punktem optymalizacji serwisu.

Szersze możliwości analizy stanu w wynikach wyszukiwania daje sekcja „Ruch związany z wyszukiwaniem”. W zakładce „Analityka wyszukiwania” można obserwować dane na temat struktury ruchu w serwisie. Ze względu na stosunkowo duży margines błędu (dokładniejsze dane z większą możliwością analizy prezentowane są w Google Analytics) oraz niedługi zakres dat (maksymalnie 90 dni) dostępne informacje powinny być raczej podstawą do analizy trendów lub stanowić jedno ze źródeł przy szerszej analizie. Dane te można wykorzystać do analizy elementów takich jak:

  • zapytania (dane na temat zapytań użytkowników, dla których serwis wyświetlał się w wynikach wyszukiwania to dobre źródło danych do analizy fraz oraz oceny trendu w poziomie widoczności),
  • strony wejścia na serwis, kraje, z których wykonywane były wyszukania,
  • urządzenia, na których były wpisywane wyszukania,
  • typ wyszukiwania,
  • stan wyników dla serwisu w wyszukiwarce (w przypadku implementacji standardu AMP w serwisie).

Zakładka „Linki do Twojej witryny” zawiera dane o odnośnikach do serwisu, ich anchor textach oraz stronach, do których kieruje najwięcej odnośników. Raport backlinków to ważne źródło informacji, a jego analiza daje podstawy do planowania strategii dla działań link buildingu oraz korekty profilu linków z wykorzystaniem narzędzia Google Disavow Links Tool w przypadku problemów, które w nim zauważymy.

Ważnym elementem optymalizacji serwisu jest struktura linkowania wewnętrznego. Dobrze opracowane połączenia między podstronami ułatwiają robotom Google indeksację strony z najbardziej zagłębionymi katalogami oraz wskazują najważniejsze podstrony, odsyłając do nich. Zakładka „Linki wewnętrzne” pomaga w analizie podstron, które najczęściej wskazywane są przez inne podstrony serwisu, co pomaga wyłapać stracone szanse dla ważnych podstron z małą ilością odnośników wewnętrznych.

W przypadku działalności na rynkach zagranicznych znaczenia nabiera zakładka „Kierowanie międzynarodowe”, gdzie określona jest poprawność wdrożonych w serwisie tagów z atrybutem hreflang dla każdej wersji językowej strony. Dla domen najwyższego rzędu jak .com czy .org można w tym miejscu określić kierowanie geograficzne, jeśli serwis ma być lepiej powiązany z hasłami geograficznymi w wynikach wyszukiwania. Jeżeli z kolei domena ma służyć na wielu rynkach i nie powinna być powiązana z żadnym pojedynczym krajem, możliwe jest wskazanie takiej sytuacji poprzez wybór „Brak na liście”.

Zakładki „Stan indeksowania” i „Statystyki indeksowania” pozwalają kontrolować postęp indeksacji podstron serwisu i ocenić, czy indeksacja przebiega poprawnie. W pierwszej sekcji zobaczymy ilość wszystkich zaindeksowanych podstron, podstrony zablokowane w pliku robots.txt oraz te, które zostały usunięte. Alarmujące przy tym powinny być:

  • nagłe spadki lub wzrosty ilości zaindeksowanych podstron mogące oznaczać problemy z obciążeniem serwera, bezpieczeństwem serwisu czy błędami przekierowań,
  • nieadekwatna do struktury serwisu wysoka ilość zaindeksowanych podstron sugerująca problemy z duplikacją treści w serwisie, atakiem hakerów lub automatycznie generowanymi adresami URL.

W drugiej zakładce widać ilość podstron indeksowanych dziennie, kilobajtów danych pobieranych dziennie oraz czas spędzony na pobieraniu strony. Po większej aktualizacji powinniśmy zobaczyć większą aktywność robota Google.

Dostęp robotów Google do zasobów serwisu to podstawa poprawnej indeksacji treści. Zakładka „Zablokowane zasoby” wskazuje podstrony, na których znajdują się zablokowane zasoby. Elementy, które nie muszą być blokowane, nie powinny.

Jedną z ważniejszych zakładek jest sekcja „Błędy indeksowania” wskazująca zaindeksowane adresy URL, dla których wykryte zostały błędy indeksowania takie jak:

  • błąd połączenia z serwerem,
  • przekroczenie limitu czasu przy łączności z serwerem,
  • błąd pobierania pliku robots.txt.,
  • błędne statury odpowiedzi nagłówka http (inne niż 200).

Monitorowanie tych błędów powinno być realizowane systematycznie, a naprawa problemów wdrażana jak najszybciej. Typowym błędem w tym punkcie są automatyczne przekierowania usuwanych podstron na stronę główną (pozorny błąd 404) lub niewdrażanie przekierowań 301 przy zmianie struktury serwisu (błąd 404). Z drugiej strony błędy 404 wynikające z normalnego funkcjonowania serwisu (np. usunięcie podstron z nieaktualnymi produktami) nie są problemem (o ile nie stanowią znacznej części oferty) i pozostawione bez przekierowania w efekcie doprowadzą do wyindeksowania usuniętego adresu.

Monitorowanie tej zakładki ma szczególne znaczenie w momencie zmiany serwisu na domenie, kiedy jak w przykładzie z grafiki poniżej możemy szybko zareagować i odbudować utraconą przez pojawiające się błędy indeksacji widoczność.

Po trzecie: narzędzia

Narzędzia dostępne w Google Search Console dają szerokie możliwości poprawy indeksacji serwisu przez roboty Google, co ma tym większe znaczenie, im szersza jest struktura strony oraz im więcej poziomów zagłębień posiada. Kluczowe w zarządzaniu serwisem będą narzędzia „Pobierz jako Google oraz „Mapy witryn” usprawniające szybką indeksację podstron. Przebudowa serwisu lub jego całkowita zmiana na domenie wymaga pełnego przeindeksowania nowej struktury przez Google i oznacza tymczasowe spadki konwersji związane ze spadkami pozycji. Zgłoszenie nowej struktury w postaci mapy XML czy pobranie najważniejszych kategorii i przesłanie ich wraz z bezpośrednimi odnośnikami do indeksacji zdecydowanie skróci ten czas i pozwoli szybciej odbudować pozycje oraz podnieść sprzedaż.

Oznaczenie danych strukturalnych wymaga dostępu do kodu serwisu, co często może być problematyczne (czy to ze względu na brak dostępu do kodu w wykupionym pakiecie CMS, czy ze względu na dodatkowe koszty prac programistycznych). Zakładka „Marker danych” to narzędzie pozwalające wyróżnić poszczególne dane na konkretnych podstronach lub wyodrębnionych typach podstron w serwisie.

Google Search Console pozwala tymczasowo zablokować wyświetlanie w wynikach wyszukiwania pojedynczych podstron dzięki narzędziu „Usuń adresy URL”. Aby podstrona została trwale usunięta z wyników wyszukiwania, należy ją usunąć lub zablokować do indeksacji w pliku robots.txt, meta tagu robots lub ustawiając ochronę hasłem na serwerze.

Bardzo przydatna w analizie poprawności indeksacji serwisu jest możliwość pobrania kodu strony i jej zrenderowania tak, jak robi to robot Google, na co pozwala narzędzie „Pobierz jako Google”. Dodatkowo narzędzie daje możliwość, przesłania pobranej podstrony do indeksu Google wraz z jej bezpośrednimi odnośnikami.

Tworząc bardziej skomplikowane listy i katalogi podstron blokowanych przed indeksacją przez roboty Google, warto wykorzystać możliwość testowania reguł blokowania w narzędziu „Tester pliku robots.txt”. Każdy ważny adres w serwisie można w tym miejscu sprawdzić, czy nie podlega błędnie jednej z ustawionych reguł zarówno w już opublikowanym pliku, jak i testując planowane do dodania reguły.

Jednym z podstawowych działań dla zapewnienia poprawnej indeksacji serwisu jest zgłoszenie mapy serwisu z pełną listą podstron, grafik i filmów w formacie XML w zakładce „Mapy witryn”. W tym miejscu można również monitorować wszelkie błędy pojawiające się w zgłoszonych mapach m.in. w efekcie usuwania podstron czy blokowania ich do indeksacji.

W serwisach korzystających z parametrów w adresach URL, dla których istnieją ograniczone możliwości zarządzania indeksacją poprzez edycję kodu podstron lub pliku robots.txt, można wykorzystać narzędzie „Parametry w URL-ach”. Pozwala ono określić, jak adresy URL z określonymi parametrami mają być traktowane przez roboty Google w trakcie indeksowania witryny. Przy edycji ustawień określane jest, czy parametr zmienia zawartość strony dla użytkownika, czy i w jaki sposób dana podstrona ze wskazanym parametrem ma być indeksowana.

Firmy działające w Internecie zmagają się z bardzo dynamicznym środowiskiem, w którym bieżąca analiza i szybka reakcja na problemy jest kluczowa. Możliwości, jakie oferuje Google Search Console, uławiają odnajdywanie błędów i ich naprawę, dając korzystającym z niego firmom przewagę nad konkurencją.

 

 

Źródła:
[1] http://ranking.pl/pl/rankings/search-engines.html, dane za okres 26.06.2017r.-02.07.2017r., dostęp 23.07.2017r.
[2] http://gs.statcounter.com/press/mobile-and-tablet-internet-usage-exceeds-desktop-for-first-time-worldwide, dostęp 23.07.2017r.