Nadrzędnym celem budowania strategi SEO jest zwiększenie widoczności pozycjonowanej strony w wynikach wyszukiwania w Google. Stosuje się w tym celu różne techniki oraz metody, które wspomagają to, aby obecność strony w sieci była jak najlepsza. Niektóre witryny jednak świadomie usuwają pewne podstrony z indeksu wyszukiwarki Google. Brzmi to trochę jak szaleństwo? Stosuje się wtedy metatag robots, a jednym z nich jest noindex. Co to jest? Dlaczego właściciele stron www blokują podstrony w obrębie serwisu?
Przeczytaj także:
Spis treści
Co to jest tag noindex?
Noindex to jeden z meta tagów robots, czyli takich, które wpływają na rodzaj indeksowania podstrony i wszystkich odnośników na niej zawartych. Jest to jedna z metod świadomego usuwania strony z wyszukiwarki Google. Tag ten umieszcza się w kodzie HTML strony albo zwraca nagłówek noindex w odpowiedzi HTTP. Takie zabieg sprawia, że strona nie będzie pojawiać się w SERPach, ale będzie dostępna dla użytkowników witryny dzięki wykorzystaniu linków wewnętrznych lub menu. Tag ten pozwoli usunąć z indeksu już wcześniej zaindeksowaną stronę.
Noindex i nofollow – różnice
Wielu użytkowników myli tag noindex z nofollow. Ten drugi jest znacznikiem HTML dla oznaczania linków. Zastosowanie go w kodzie wysyła robotom wyszukiwarki informację o tym, aby zignorować dany link. Pierwotnie tag nofollow wykorzystywany był do zwalczania spamu w komentarzach na blogach. Później zaczęto go wykorzystywać do manipulowania oceną linków wewnętrznych i zewnętrznych. Niektóre strategie SEO wykorzystują dyrektywę nofollow do poprawiania pozycjonowania strony w celu poprawienia jej jakości. W przeciwieństwie do metatag noindex strona wykorzystująca nofollow nada jest widoczna w wynikach wyszukiwania.
Kiedy korzystać z meta tagu noindex?
SEO w większości przypadków stawia na strategię link buildingu opartej na linkach dofollow. Należy jednak pamiętać, że nie wszystkie podstrony powinny znajdować się w wynikach wyszukiwania, aby nie obniżały one jakości strony jako całości. Nieustannie należy wzmacniać jej autorytet. Chodzi głównie o podstrony, których zadaniem nie jest generowanie większego ruchu organicznego. Zaprojektowana w 1996 roku dyrektywa noindex pozwala kontrolować wyświetlanie wartości danej strony w Google – to administratorzy informują, z czego powinien korzystać odbiorca.
Które strony zablokować przez robots noindex?
Blokowanie indeksowania wyszukiwania warto zastosować na:
- podstronach o niskiej jakości treści,
- podstronach z wynikami filtrowania produktów w sklepach internetowych,
- podstronach z wynikami sortowania produktów,
- podstronach powstałych w wyniku personalizowania produktów,
- podstronach logowania, rejestracji, regulaminu, koszyku sklepu internetowego,
- płatnych stronach i podstronach,
- stronach testowych bądź będących w trakcie przeprojektowania,
- stronach z przekierowaniem np. do podziękowania.
Jak zablokować indeksowanie podstrony?
Jak wykorzystać w praktyce meta robots tag noindex? Aby zablokować indeksowanie danej podstrony, należy wejść w sekcję HEAD strony i umieścić w jej obrębie meta tag <meta name= ”robots” content=”noindex”> bądź <meta name=”googlebot” content=”noindex”>. Innym, mniej popularnym sposobem, jest zablokowanie robota Google. Jeśli serwer, z którego się korzysta pozwala ręcznie edytować plik .htaccess, wystarczy wykorzystać kod header(X-Robots-Tag: noindex, nofollow”, true).
Jak sprawdzić, czy strona znajduje się w indeksie?
Przed zastosowaniem tagu noindex, należy w pierwszej kolejności sprawdzić, które z podstron w obrębie serwisu znajdują się w indeksie wyszukiwarki. Wystarczy w tym celu wpisać komendę site: [nazwa strony] w oknie wyszukiwania i Google wyświetli wszystkie podstrony. Można do tego celu wykorzystać także Google Search Console, wejść w zakładkę Indeks” -> „Stan. Warto o tym pamiętać, ponieważ strona nie musi pojawić się na wysokiej pozycji w wyszukiwarce Google i trudno będzie ją odnaleźć.
Dlaczego Google samodzielnie usuwa niektóre podstrony z indeksu?
Algorytmy Google rozwijają się nieustannie, dzięki czemu stają się coraz mądrzejszymi narzędziami indeksującymi i pozycjonującymi strony. W niektórych przypadkach roboty Google samodzielnie usuwają podstrony z indeksu. Dzieje się tak, gdy:
- strona ma niski wskaźnik prędkości ładowania,
- podstrona przestała działać,
- treść na podstronie została zdublowana,
- robot indeksujący wykrył problem techniczny na podstronie,
- została nałożona na stronę kara za technikę Black Hat SEO.
Największymi korzyściami z zastosowania noindex jest uniknięcie zamieszania i ułatwienie korzystania ze strony użytkownikom. Dyrektywa organizuje również wyświetlaną zawartość. W niektórych przypadkach posiadanie mniejszej ilości zaindeksowanych podstron pozytywnie wpływa na SEO i pozycję strony w wyszukiwarce.
Blokowanie indeksowania przez meta tag robots noindex – podsumowanie
Indeks wyszukiwarki Google to zbiór wszystkich stron internetowych dostępnych w organicznych wynikach wyszukiwania. Mówiąc wprost, nie ma tam wszystkich witryn www z całego świata. Za pomocą meta robots.txt można wydawać robotom polecenia, które mają ogromny wpływ na pozycjonowanie w wynikach wyszukiwania Google. Stosując taki prosty zabieg sprawia się, że mniej ważny content nie pojawia się w SERPach. Tym samym dostaje się bardziej wiarygodny wskaźnik konwersji. Należy jednak pamiętać, że wprowadzone zmiany nie muszą być widoczne natychmiastowo.