Zmiany w wytycznych Google dla Webmasterów
(8 min czytania)
Oryginalnie podsumowanie wprowadzonych zmian pojawiło się na seroundtable.com. Ten artykuł jest luźnym tłumaczeniem materiału zawartego w seroundtable.com.
Aktualne wskazówki dla webmasterów można znaleźć w pomocy Google w wersji polskiej oraz angielskiej.
Warto zwrócić uwagę na fakt, że zazwyczaj wprowadzenie zmian we wskazówkach dla webmasterów skutkowało w niedługim czasie wprowadzeniem przez inżynierów Google aktualizacji w samej wyszukiwarce, a dokładnie w algorytmie odpowiedzialnym za wyświetlanie wyników wyszukiwania. Kto wie – być może tym razem także będziemy świadkami takiego zachowania Google?
W zaktualizowanych wskazówkach dla webmasterów pojawiły się zupełnie nowe zalecenia:
„W miarę możliwości zabezpiecz połączenia witryny korzystając z protokołu HTTPS. Szyfrowanie interakcji użytkownika z witryną to sprawdzona metoda komunikacji w Internecie.”
Znaczy to tyle, że posiadanie zabezpieczonej witryny jest teraz zaleceniem ze strony Google. Oczywiście można było się spodziewać takiej decyzji prędzej czy później. Sprawia to, że nie ma już szarej strefy powątpiewania „warto/
„Projektując witrynę, weź pod uwagę wszystkie rodzaje i rozmiary urządzeń, w tym komputery, tablety i smartfony. Skorzystaj z narzędzia do testowania optymalizacji mobilnej, sprawdź, jak strony działają na urządzeniach mobilnych i dowiedz się, co warto poprawić.”
To także element, którego można było prędzej czy później spodziewać się we wskazówkach dla webmasterów. Jeżeli do tej pory zwlekałeś z przystosowaniem swojej strony do urządzeń mobilnych – czekałeś za długo. Od tego momentu nie ma już mowy o wątpieniu w istotność posiadania wersji mobilnej własnej witryny.
Warto zwrócić uwagę, że to pierwszy raz, gdy w wytycznych dla webmasterów pojawia się wzmianka o urządzeniach mobilnych i dostępności stron na te urządzenia.
„Upewnij się, że strony są przydatne dla użytkowników z wadami wzroku, na przykład testując łatwość obsługi z użyciem czytnika ekranu.”
Zalecenia co do dostępności strony, a także jej przydatności dla użytkowników z wadami wzroku dawno nie była obecna w dokumencie. Teraz nie ma wątpliwości, że strony powinny być dobrze przystosowane także i dla osób z wadami wzroku.
„Upewnij się, że ważne treści są domyślnie widoczne w witrynie. Google może indeksować zasoby HTML ukryte w elementach nawigacyjnych, takich jak karty czy sekcje rozwijane. Uważamy jednak, że dostępność takich treści dla użytkowników jest nieco ograniczona, więc proponujemy umieszczenie najważniejszych informacji w domyślnym widoku strony.”
Ten zapis kończy dyskusję, czy roboty Google „czytają” treść zawartą w tabach (zakładkach) i czy radzą sobie z rozwijanym tekstem. Warto jednak starać się tak prezentować treść, aby zakładki nie były wymagane.
Pojawiły się także aktualizacje w obecnych zaleceniach
„Upewnij się, że do wszystkich stron w witrynie prowadzą linki z innych stron, które można znaleźć. Link odsyłający powinien zawierać tekst lub – w przypadku obrazów – atrybut alt odnoszący się do strony docelowej.”
Można to przetłumaczyć w bardzo prosty sposób – twórz stronę opartą o jasną hierarchię i najlepiej z linkami tekstowymi. Każda podstrona powinna posiadać co najmniej jeden statyczny, tekstowy link wewnętrzny.
W wersji angielskiej słowa układają się w formie „wszystkie linki powinny być osiągalne…” Nie ma natomiast wzmanki na temat statyczych linków, które do tej pory były przez Google preferowane. Chodzi tylko o to, aby link do podstrony był „osiągalny”.
Punkt ten wcześniej połączony był z informacją o prostej hierarchii strony. Aktualnie elementy te zostały rozłączone.
„Prześlij plik mapy witryny z linkami do ważnych stron w witrynie. Udostępnij również stronę z listą linków do tych stron w postaci czytelnej dla człowieka (czasem nazywaną indeksem witryny lub stroną mapy witryny).”
Jest to połączenie dwóch starych zapisów, z których jeden mówił o tworzeniu mapy strony dla użytkowników z najważniejszymi podstronami, a w przypadku wystąpienia dużej liczby podstron – aby podzielić mapy strony na wiele podstron.
Drugi zapis mówił: „Dodaj swoją mapę strony do Google Search Console, co pozwoli poznać strukturę Twojej strony robotom indeksującym, a także zwiększyć pokrycie zbadanych stron.
Nowy zapis także został podzielony na dwie części – jedna dotyczy ludzi, druga robotów, ale z tą ciekawostką, że zalecenie na temat mapy strony dla ludzi znalazło się w zbiorze zaleceń dla robotów.
„Ogranicz liczbę linków na stronie (maksymalnie kilka tysięcy).”
Lata temu Google zalecało w swoich dokumentach ze wskazówkami dla Webmasterów aby nie tworzyć więcej niż 100 linków. Później zaktualizowali ten zapis do „dodaj tyle linków aby miało to jakiś sens i umiar”. Teraz z czystym sumieniem możemy dodać nawet kilka tysięcy linków.
„Zarządzaj indeksowaniem za pomocą pliku robots.txt na serwerze internetowym, zapobiegając indeksowaniu nieskończonych przestrzeni, jakimi są strony wyników wyszukiwania. Dbaj o aktualność pliku robots.txt. Dowiedz się, jak zarządzać indeksowaniem za pomocą pliku robots.txt. Przetestuj zasięg i składnię pliku robots.txt za pomocą narzędzia do testowania pliku robots.txt.”
Wcześniej ta reguła mówiła o tym do czego wykorzystywane jest robots.txt, a także o sprawdzeniu, czy przypadkowo nie blokujemy dostępu do strony poprzez reguły w tym pliku.
Co dziwne, w nowej wersji zapisu znikł punkt mówiący o przypadkowym wyindeksowaniu strony. Pojawił się natomiast (w wersji angielskiej) termin „crawl budget” nieprzetłumaczony na język polski.
„Upewnij się, że elementy <title> i atrybuty alt są opisowe, konkretne i dokładne.”
Zapis ten w porównaniu ze starszą wersją został zaktualizowany o słowo „konkretne”.
„Zapoznaj się z zalecanymi sprawdzonymi metodami postępowania z obrazami, filmami i danymi strukturalnymi.”
Różnica jest taka, że zamiast słowa "przeczytaj" pojawiło się zalecenie „zapoznaj się”.
„Jeśli korzystasz z systemu zarządzania treścią (np. Wix lub WordPress), upewnij się, że tworzy on strony i linki, które mogą być indeksowane przez wyszukiwarki.”
Zmianą w tym punkcie jest wymienienie z nazwy dwóch CMSów.
„Aby ułatwić Google dokładne zrozumienie zawartości witryny, zezwól na zaindeksowanie wszystkich jej zasobów, które znacząco wpływają na renderowanie stron, w tym plików CSS i JavaScript, istotnych dla właściwej interpretacji stron. System indeksowania Google renderuje strony internetowe tak, jak widziałby je użytkownik, uwzględniając również obrazy, pliki CSS i JavaScript. Aby zobaczyć zasoby stron, których Googlebot nie może zaindeksować, a także poprawić instrukcje w pliku robots.txt, skorzystaj z raportu na temat zablokowanych zasobów w Search Console oraz z narzędzi Pobierz jako Google i Tester pliku robots.txt.”
Zmiany w tym punkcie to tak naprawdę niuans w postaci zachęcenia do jeszcze większego skupienia się na kaskadowych arkuszach styli (CSS) oraz JavaScript, które „znacząco wpływają na renderowanie stron”. We wcześniejszej wersji tego punktu nie było wzmianki o wpływie tych elementów na działanie i renderowanie strony. Pojawiła się także informacja, że o zablokowanych zasobach dowiedzieć się możemy w Google Search Console.
„Upewnij się, że linki do reklam nie wpływają na pozycję stron w wyszukiwarkach. Możesz na przykład zablokować linki do reklam dla robota za pomocą pliku robots.txt lub atrybutu rel="nofollow".”
Wszystkim znany zapis, który wcześniej brzmiał nieco inaczej. Pojawiał się przykład, że linki dystrybuowane w reklamach Google AdSense czy DoubleClick posiadają nałożony znacznik nofollow.
Zapis ten czyści sytuację kiedy zastanawiano się, czy znacznik nofollow dotyczy tylko sieci dystrybuujących linki czy wszystkich linków reklamowych. Zapis ten jako pierwszy nakazuje korzystanie z rel=”nofollow”.
„Istotne nazwy, treści i linki powinny być zapisane zwykłym tekstem, a nie za pomocą elementów graficznych. Jeśli musisz używać obrazów w zawartości tekstowej, użyj atrybutu alt z kilkoma słowami opisu.”
Główną zmianą w tym punkcie jest opisanie możliwości użycia „kilku słów” w alt. Wcześniej pojawiał się w tym miejscu tylko zapis mówiący „rozważ użycie alt”.
„Upewnij się, że wszystkie linki prowadzą do aktywnych stron internetowych. Używaj prawidłowego kodu HTML.”
Wcześniej punkt ten brzmiał:
„Zbadaj stronę w poszukiwaniu niedziałających linków i poprawnego HTML”.
Pierwsza zmiana to po prostu jaśniejszy przekaz. Drugą zmianą jest to, że Google zamiast pisać „dostarcz nam działające linki” mówi „upewnij się, że wszystkie linki kierują do działających podstron”. To trochę prostszy sposób powiedzenia: „badaj stronę pod kątem niedziałających linków”.
„Zoptymalizuj czas wczytywania stron. Szybko działające witryny są atrakcyjne dla użytkowników i podnoszą ogólną jakość internetu (szczególnie w przypadku użytkowników z wolnym połączeniem internetowym). Google zaleca przetestowanie wydajności strony za pomocą takich narzędzi jak PageSpeed Insights oraz Webpagetest.org.”
Ten punkt został zaktualizowany poprzez usunięcie wzmianki o przestarzałych narzędziach jakie Google dostarcza, ale już dłużej nie wspiera.
Co zostało w dokumencie rozdzielone/ zaktualizowane?
„Zaprojektuj witrynę tak, by uzyskać wyraźną pojęciową hierarchię stron.”
Wcześniej punkt ten dotyczył: „Tworzenia stron z jasną hierarchią i linkami tekstowymi. Każda strona powinna być dostępna poprzez co najmniej jeden link na stronie”.
Dodanie pojęcia „wyraźną” (ang. conceptual) jest ciekawe.
Co zostało usunięte?
Dynamiczne adresy
Wzmianka o używaniu dynamicznych stron, które zawierają na przykład znacznik „?”. Chodziło o troskę Google, że nie wszystkie roboty indeksujące będą w stanie odpowiednio zinterpretować takie adresy. Wpis ten został usunięty, ponieważ dynamiczne adresy stały się aktualnie standardem.
Usunięty został także zapis o blokowaniu wyników wyszukiwania poprzez robots.txt. Punkt ten został opisany na nowo.
Jeżeli Twoja strona jeszcze nie została dostosowana do nowych wytycznych Google dla Webmasterów, zadbaj o to jak najszybciej! Brak odpowiednich wdrożeń może osłabić pozycjonowanie i seo Twojej witryny!