I - Indeksowanie (Encyklopedia Marketingu)

I - Indeksowanie (Encyklopedia Marketingu)

Czym jest indeksowanie? Jaka jest jego definicja? Aby przybliżyć wam to i wiele innych zagadnień stworzyliśmy encyklopedię pojęć marketingowych. Poniżej kolejne hasło.

1. Michał Pater, Starszy specjalista SEO, widzialni.pl
2. Jacek Tkaczuk, SEO Director, Bluerank
3. Andrzej Połatajko, SEO Evangelist, Domain Broker w Dostrzegani.pl

Halo, bileciki do kontroli!

Pełną treść dostaniesz bez grosza,
ale musisz być w naszym newsletterze.

Raz, raz, wpisywać e-mail. Tylko prawdziwy, bo sprawdzę!

partner technologiczny: GetResponse

Indeksowanie

[Michał Pater:] Aby móc swobodnie rozmawiać o indeksowaniu, najpierw należy wyjaśnić pojęcie indeksu. Indeks, zgodnie ze swoją definicją słownikową, jest to lista, a w kontekście pozycjonowania lista stron, którą wyszukiwarka Google udostępnia internautom.

Mówiąc prościej, za każdym razem, kiedy mamy do czynienia z jakimkolwiek wynikiem wyszukiwania, zapoznajemy się z fragmentem indeksu Google, adekwatnym do wpisanego zapytania. Jest to niezwykle ważne, aby jak najwięcej podstron serwisu znalazło się w indeksie – jeśli ich tam nie będzie, to Google oczywiście nie pokaże ich użytkownikom.

Obok klasycznego indeksu, mamy także indeks uzupełniający, tzw. supplemental index. Jest to lista stron internetowych, które zostały zbadane przez roboty Google, ale według algorytmów wyszukiwarki nie są na tyle wartościowe, aby je wyświetlać użytkownikom. Klasycznym przykładem stron często trafiających do – mówiąc gwarą branżową – „suplementala” są powielające się w wyniku sortowania kategorie w sklepach internetowych. Należy zwrócić uwagę, że do tego indeksu kierowana jest zazwyczaj tylko część serwisu internetowego, wartościowe podstrony znajdują się w indeksie podstawowym.

Część adresów znajdujących się w indeksie uzupełniającym (o ile istnieją dla danego zapytania) możemy przejrzeć klikając w odnośnik „Aby pokazać najbardziej trafne wyniki, pominęliśmy kilka pozycji bardzo podobnych do X już wyświetlonych. Jeśli chcesz, możesz powtórzyć wyszukiwanie z uwzględnieniem pominiętych wyników.” Wyświetli się on na końcu niektórych wyników wyszukiwania.

Przechodząc do sedna – indeksowanie to proces dodawania danego adresu URL do indeksu wyszukiwarki. Nie jest to element rankingowy sam w sobie, porównałbym go raczej do warunku wstępnego przed rozpoczęciem procesu pozycjonowania, bo przecież jeśli nie ma podstron w indeksie, to nie pojawią się w wynikach wyszukiwania.

Indeksowanie odbywa się w sposób naturalny: roboty wyszukiwarki odwiedzają witrynę, przechodzą po kolejnych podstronach „wyrabiając” sobie o nich opinię, by finalnie dodać każdy z adresów do któregoś indeksu. Nie mamy bezpośredniego wpływu na to, do którego trafią, dlatego należy zadbać, aby w serwisie nie pojawiły się podstrony o niskiej jakości. Jeśli zaniedbamy ten element optymalizacji, w niektórych wypadkach Google może w ogóle nie dodać części naszego serwisu do swojego indeksu.

Proces ten, choć odbywa się bez ingerencji właściciela strony, może być przez niego przyspieszony. Dodatkowe działania w tym kierunku są bardzo ważne dla serwisów dużych, z wieloma poziomami, o szybko zmieniającej się treści. Przykładami takich stron są sklepy internetowe, szczególnie te, które często aktualizują asortyment lub portale z newsami. Im szybciej dana treść znajdzie się w indeksie, tym szybciej Google sprowadzi na nią internautów, dlatego podstawą optymalizacji tego typu serwisów jest mapa strony. Jest to plik w formacie *.xml, zawierający listę wszystkich podstron, które chcemy umieścić w wyszukiwarce. Jeśli robot trafi na mapę, może bez problemu dotrzeć do każdego adresu w obrębie serwisu bez mozolnej i często trwającej długo wędrówki – czas dotarcia do niektórych podstron może być liczony w tygodniach.

Korzystając z Google Search Console możemy stworzoną mapę przesłać do Google – nie jest to konieczne, ale dzięki temu mamy możliwość sprawdzenia poziomu indeksacji witryny. W GSC możemy również zmienić parametr „szybkość indeksacji”, dzięki czemu robot będzie odwiedzał naszą witrynę częściej, będzie się to jednak działo kosztem większego obciążenia serwera.

Bardzo ważna jest struktura witryny, a konkretnie moduły linkowania wewnętrznego, takie jak listy polecanych produktów czy nowości. Nie dość, że pełnią funkcję informacyjną dla internauty, to umieszczone w obrębie całego serwisu ułatwiają przejście do wybranych adresów robotom Google. Kolejną kwestią jest drzewo witryny – nie może zawierać zbyt wielu poziomów. Dla większości serwisów wystarczą trzy – kategoria, podkategoria, produkt (bądź ich odpowiedniki w portalach innych niż sklepy) i taką też strukturę zalecam. Im dalej dany adres znajduje się od strony głównej, im więcej podstron musi odwiedzić robot, żeby do niego dotrzeć, tym mniej chętnie będzie do niego zaglądał.

Strona musi być wykonana w technologii przyjaznej robotom wyszukiwarki. Mimo wielu deklaracji Google nadal sobie nie radzi z poprawnym odczytywaniem stron opartych na technologiach dynamicznych. Jeśli strona ma być wykonana jako one-page lub posiadać inne „fajerwerki” to najpierw należy skonsultować się ze specjalistą.

Nie należy zapomnieć o zarządzaniu indeksacją poprzez meta tag robots, plik robots.txt, czy często pomijany nagłówek HTTP x-robots-tag. Metody te zabraniają dostępu do części serwisu dla robotów (robots.txt) bądź przekazują do Google dyrektywę zabraniającą indeksowania (wartość „noindex” w meta tagu bądź nagłówku). Są to bardzo przydatne narzędzia pozwalające rozwiązać problem powieleń wewnętrznych, czy chronić dane wrażliwe, jednak stosowanie ich bez pewnych umiejętności może stanowczo serwisowi zaszkodzić.

Wyżej opisane metody są najbardziej efektywne, gdy musimy uporać się z indeksacją dużego serwisu. Jeśli zależy nam na włączeniu do indeksu pojedynczych podstron, możemy skorzystać z GSC (zakładka „Pobierz jako Google”).

Istnieją kolejne metody przyspieszania indeksacji, np. używanie masowych ilości odnośników, są one jednak trudniejsze w realizacji i często niosą ze sobą ryzyko, dlatego doradzam korzystanie z tych opisanych powyżej.

 

Autor definicji:

Michał Pater

Starszy specjalista SEO w agencji widzialni.pl, w branży od 5 lat. Swoją wiedzę i doświadczenie zdobywał prowadząc kampanie SEO dla kilkuset firm zarówno polskich, jak i zagranicznych. Prawdziwy pasjonat i człowiek czynu, który w swojej pracy korzysta z bogatego spektrum metod oraz narzędzi z obszaru SEO/SEM.

 

---

[Jacek Tkaczuk:] Umowna nazwa procesu, w którym roboty wyszukiwarki odwiedzając kolejne strony serwisów WWW, zapisują informacje o ich zawartości do wewnętrznej bazy danych wyszukiwarki. W praktyce fakt zaindeksowania strony przez wyszukiwarkę oznacza najczęściej możliwość pojawienia się tej strony w wynikach wyszukiwania (niekoniecznie na pierwszych stronach wyników).

Na skuteczną indeksację całego serwisu ma wpływ szereg czynników, między innymi link popularity domeny, liczba stron z unikalnymi treściami w ramach domeny, brak błędów np. 404, brak dużej ilości zduplikowanych treści.

Indeksację strony można zweryfikować, wyszukując unikalny fragment jej zawartości w wyszukiwarce lub też skorzystać z polecenia site: również wprowadzonego w polu wyszukiwania, na przykład: site:www.domena.pl/adres-strony.

 

Autor definicji:

Jacek Tkaczuk
SEO Director, Bluerank

---

[Andrzej Połatajko:] W kontekście marketingu w wyszukiwarkach, indeksowanie jest procesem znajdowania i przetwarzania informacji pobieranych przez bota wyszukiwarki internetowej, a następnie dodawania ich do indeksu wyszukiwarki. Strona internetowa, zawartość niektórych plików, grafiki, wideo czy np. fragmenty książek, pojawiają się w wynikach wyszukiwania, po spełnieniu szeregu kryteriów. Częstotliwością pobierania danych jak i szybkością ich wprowadzania do bazy wyszukiwarki można manipulować na wiele sposobów.

Indeksowanie uwzględnia nie tylko nową treść, lecz również zmiany wykonane w zawartości już zaindeksowanej, a także problemy z jej dostępnością, np. niedziałający adres URL lub usunięty plik. Naruszenie zasad jakości, niedostępność trwająca przez dłuższy czas lub treść zgłoszona do usunięcia powodują tymczasowe lub stałe wykluczenie informacji z wyników wyszukiwania. Istnieją różne metody kontrolowania danych udostępnianych np. wyszukiwarce Google - od dyrektyw na poziomie serwera, kodów programistycznych czy specjalnych tagów po narzędzie zarządzające parametrami URL.

 

Autor definicji:

Andrzej Połatajko
Search Engine Marketing Expert w branży SEM obecny od 2005 r., SEO Evangelist, Domain Broker w Dostrzegani.pl

 

Zobacz inne odcinki cyklu Encyklopedia Marketingu >

Komentarze

Polecane

Dzięki, link został przesłany

Zamknij

Serdeńko!
Lubisz już nasz fanpage?

Wystarczy kliknąć:

zobacz nasz fanpage >> Zamknij

Niech zapisze się
do newslettera!

Zostaw e-mail
i powolutku strzałeczka na guziczek!

Zamknij