Google Page Experience i jego wpływ na internet

Google Page Experience i jego wpływ na internet

Nie jest tajemnicą, że Google dąży do standaryzacji stron internetowych. Im strona jest łatwiejsza do odczytania i zrozumienia przez roboty Google, tym ma teoretycznie większe szanse na osiągnięcie wysokich pozycji. Ponadto Google chce łatwiej przetwarzać informacje na stronie, dlatego motywuje do korzystania z danych strukturalnych. Nie można też nie wspomnieć o wykluczaniu technologii dla Google niezrozumiałej – upadek Flash to nie jest widzimisię programistów, a lobbowanie Google, które za sprawą swojej monopolistycznej pozycji zaczęło stopniowo marginalizować to narzędzie.

Pod koniec maja 2020 r. pojawiła się informacja, że Google zamierza wprowadzić kilka nowych czynników rankingowych, które będą silnie związane z użytecznością strony. Nie jest to rewolucja, a właściwie ewolucja już dawno przyjętej dla wyszukiwarki strategii. Wszystkie te działania mają sprawiać, że internauta będzie trafiał szybko na strony bezpieczne oraz intuicyjne w obsłudze.

Wśród wielu czynników rankingowych należy wymienić m.in.:

  • dostosowanie do urządzeń mobilnych,
  • bezpieczeństwo strony i SSl,
  • pojawianie się natrętnych reklam,
  • szybkość ładowania – tę wyrażono w trzech czynnikach (LCP. FID i CLS).


Źródło: webmasters.googleblog.com/2020/05/evaluating-page-experience.html

LCP, FID I CLS nie są niczym nowym i w ocenie szybkości strony były stosowane już od dawna – prawdopodobnie Google używało ich w ustalaniu rankingu wyszukiwań, obecnie oficjalnie należą do Core Web Vitals, stanowiącego ważny czynnik rankingowy w wyszukiwarce. Musimy wiedzieć, że jeśli Google otwarcie mówi o jakimś czynniku, to wyraźnie wyznacza standard. Tu nie ma miejsca na niedomówienia i interpretacje. Po prostu ma być szybko.

Czym właściwie są Core Web Vitals?

W największym uproszczeniu CWV to wskaźniki szybkości ładowania:

  • lCP – Largest Contentful Paint (ładowanie) – czyli czas potrzebny do załadowania największego contentu. Dla przykładu tym contentem może być tekst, grafika czy wideo.
  • FID – First Input Delay (interaktywność) – czas, po jakim internauta może wchodzić w interakcję z witryną, a ta zareaguje (czyli np. możliwe będzie wysłanie formularza, kliknięcia w button itd.).
  • CLS – Cumulative Layout Shift (stabilność) – wskaźnik mierzący doczytywanie elementów i przesuwanie treści. Często spotykamy się z sytuacją, gdy czytając zawartość strony w trakcie ładowania, treść ucieka przed naszymi oczami spychana przez doczytywane grafiki ponad linią tekstu. CLS będzie to mierzył.


web.dev/vitals/

Powyższe wskaźniki będą odczytywane i interpretowane zarówno przez PageSpeedInsight, jak i raport web.dev bazujący na lighthouse. Istotną i ważną nowością jest dodanie tego raportu do GSC, co tylko dowodzi, jak wielką wagę Google będzie przywiązywał do tego elementu. Można więc rzec, że w końcu szybkość strony przestanie być jedynie % wskaźnikiem oceny przez platformy w stylu GTMetrix czy PageSpeedInsight, rzeczywiście mierząc użyteczną szybkość serwisu. Tylko tyle i aż tyle.

Wujku Google, ale po co te zmiany?

W biznesie nic nie dzieje się bez przyczyny. W mojej ocenie Google komunikując tę zmianę, pod płaszczem użyteczności i przyjazności internautom, chce przemycić również wartość biznesową.

Szybsze strony to mniejsze obciążenie dla Google. Aby osiągnąć lepsze wskaźniki, prawdopodobnie trzeba będzie maksymalnie ograniczać zewnętrzne skrypty, co z kolei może być argumentem do stosowania tych oficjalnie dostarczanych przez Google (np. skrypty reklam). Pozostaje też czekać, aż Google jeszcze mocniej zacznie promować swojego website buildera. Aż dziwne, że narzędzie dostępne z poziomu Google Moja Firma nie jest mocno eksponowane. Szczególnie w czasie COVID i lawinowego przenoszenia biznesu do sieci aż prosiło się, aby takie strony tworzyć.

Przejęcie rynku zdominowanego przez Wordpressa jest bardzo łakomym kąskiem, a Google ma ku temu wszelkie narzędzia. Jedynym problemem jest Unia Europejska i jej zapędy do karania potentata za praktyki monopolistyczne.

Spójrzmy również na coraz większe znaczenie metadanych czy zapędy w kierunku prezentacji produktów z poziomu wyszukiwarki bez kampanii Google Ads. Tu również od jakiegoś czasu mówi się o tym, że Google chce stać się ogólnoświatowym sklepem internetowym. Co ciekawe, Allegro już od jakiegoś czasu działa w kontekście standaryzacji i produktyzacji, co bez wątpienia ma związek z kierunkami wytyczonymi przez Google.


developer.allegro.pl/news/

Rywalizacja Google w walce o klienta z dużymi serwisami pokroju Allegro czy nawet Amazon / Ebay to coś, co wydaje się naturalne. Jeśli sprzedawcy będą mieli wybór płacenia prowizji lub bezpłatnego wrzucenia feedu produktowego do Google, to prawdopodobnie coraz częściej będą kierować się ku tej drugiej opcji. Od dawna spotyka się sytuacje, gdzie sprzedawcy wykorzystują Allegro jedynie jako platformę reklamową, próbując przekierować sprzedaż poza ten serwis. Polski lider nie ma się jednak czego obawiać. Dopóki dba o klienta końcowego przez programy ochrony kupujących, darmową dostawę i poczucie bezpieczeństwa, nie straci swojej pozycji. Pytanie jednak, co jeszcze wymyśli Google. Póki co raczej będzie mocniej penetrował MŚP, e-commerce przesuwając na dłuższą i wyniszczającą batalię.

Co to oznacza dla właścicieli stron?

Wracając do Page Experience Update. Standaryzacja jest korzystna, a przyśpieszenie stron, nawet jeśli ma ukryte intencje, jest dobre dla wszystkich. Według w3techs.com aktualnie blisko 65% stron korzysta z Wordpressa, ale dotarłem do statystyk wskazujących, że ponad połowa z nich jest oparta na wersji starszej niż 5.0. Potwierdza się to również z moimi doświadczeniami – większość właścicieli stron nie aktualizuje kolejnych wersji silnika ani wtyczek. Wynika to z braku wiedzy, obawy przed „popsuciem” strony czy braku świadomości takiej konieczności. Wystarczy wspomnieć, że Wordpress rocznie wypuszcza około 15-20 mniejszych bądź większych aktualizacji, by zrozumieć skalę problemu.

Osobna kwestia to technologia. W 2018 roku około 55% miało SSL. Dziś pewnie jest to około 75-80%, choć nie dotarłem do wiarygodnego źródła. Nie mam również źródła dla statystyki stron bez wersji responsywnej, ale szacuję, że może być ich około 30%. Obecnie jeszcze około 3-5% stron korzysta z flash.


www.chromium.org/flash-roadmap/flash-usage-trends

Właściciele strony stają więc przed ważnym wyzwaniem. Stare strony muszą zostać odświeżone, a nowe powinny być stworzone w technologii, którą będzie można łatwo modernizować do nowych wymogów. Na pewno coraz mocniej trzeba będzie dbać też o stałe administrowanie technologiczne.

Co to oznacza dla branży SEO?

Firmy pozycjonujące będą musiały się przełamać i robić to, czego dotąd unikały i przejąć większą odpowiedzialność za stronę klienta. Optymalizacja szybkości, aktualizacje CMS, dbanie o jakość kodu będą dużo ważniejszym elementem niż dotychczas. Oczywiście nie można zapominać o istotnej roli treści, optymalizacji struktury technicznej, nawigacji i linkowania wewnętrznego, odpowiedniego budowania tematyczności i wszystkiego tego, co wpisuje się w szeroko pojęte know-how branży.

Mając na uwadze ryzyka wynikające z zastosowania różnych technologii i koszty za tym idące, widzę coraz większy potencjał serwisów typu SaaS, takich jak Shoper czy Website Leader. Jest to obecnie najbezpieczniejsza i paradoksalnie najlepsza ekonomicznie forma dla wszystkich stron – właściciel otrzymuje stronę, która jest aktualna, bezpieczna i dostosowana do potrzeb, agencja może pracować na własnej technologii, doskonaląc procesy i obniżając koszty, a Google otrzymuje strony zgodne z autorskimi wskazówkami dla webmasterów, dostosowane do oczekiwanego standardu.

Pozostaje pytanie: Co jeszcze wymyśli Google? Tak jak wspomniałem, uważam, że Google prędzej czy później wejdzie mocniej w rynek CMS. Nie musi być to czymś złym, ale też niekoniecznie musi być dobre. Monopol nie jest korzystny ani dla rynku, ani dla konsumenta. Z drugiej strony wszechobecny chaos internetowy jest czymś, z czym trzeba walczyć.

Zmiany, które proponuje Google na pewno pomogą w wygodniejszym korzystaniu ze stron internetowych. Zanim to się jednak stanie, czeka nas wszystkich dużo pracy.

 

Bartłomiej Matulewicz

Praktyczną przygodę z marketingiem w wyszukiwarkach zaczął 10 lat temu, preclując dla pewnej dużej firmy. Dziś w Sunrise System doradza największym brandom w Polsce w zakresie SEM. Posiadacz certyfikatu DIMAQ. Interesuje się szeroko pojętym UX, lubi działać w Analytics i prezentować dane w Data Studio. Według niego przyszłość stron internetowych to standaryzacja i automatyzacja. Poza marketingiem interesuje się historią sportu, a pasję tę wyraża, współtworząc największy polski portal o historii piłki nożnej – rfbl.pl.

Komentarze

Polecane

Dzięki, link został przesłany

Zamknij

Serdeńko!
Lubisz już nasz fanpage?

Wystarczy kliknąć:

zobacz nasz fanpage >> Zamknij

Niech zapisze się
do newslettera!

Zostaw e-mail
i powolutku strzałeczka na guziczek!

Zamknij