Błędy i ostrzeżenia narzędzi SEO, które można zignorować

Błędy i ostrzeżenia narzędzi SEO
Problemy z indeksowaniem (strony „noindex”)
Obrazy powyżej 100 KB
Strony o niskiej zawartości
Niski stosunek ilości kodu HTML do tekstu
Mapa witryny XML nie jest wskazana w pliku robots.txt

POSŁUCHAJ jeśli nie masz czasu na czytanie

Błędy i ostrzeżenia narzędzi SEO

W wielu przypadkach SEO, to, co robot indeksujący określa jako błąd krytyczny, wymaga natychmiastowej uwagi – ale czasami wcale nie jest to błąd i nie ma wpływu na widoczność naszej witryny.

Narzędzia SEO najczęściej są niezbędne do tego, aby nasza strona uzyskała wysokie pozycje w wynikach wyszukiwania, ale to wiedza i doświadczenie specjalisty SEO stanowi grunt do tego, aby określić, które ostrzeżenia należy wziąć pod uwagę, a które zignorować. W tym artykule poznasz przykładowe błędy i ostrzeżenia narzędzi SEO, które można zignorować.

Takie błędy i ostrzeżenia mogą pojawić się nawet w przypadku najpopularniejszych narzędzi SEO, takich jak Semrush Site Audit, Ahrefs Site Audit, Sitebulb, Google Search Console i Screaming Frog.

Oto kilka rzeczywistych przykładów takich ostrzeżeń i błędów wraz z wyjaśnieniem, dlaczego nie stanowią one problemu dla Twojej witryny.

Problemy z indeksowaniem (strony „noindex”)

Każdy robot SEO podświetli i ostrzeże Cię o nieindeksowanych stronach w Twojej witrynie. W zależności od typu robota, strony nieindeksowane mogą być oznaczane jako ostrzeżenia, błędy lub statystyki. W raporcie Google Search Console możesz również zauważyć oznaczone strony nieindeksowane jako błędy, nawet, jeśli witryna ma strony noindex w sitemap. Jest to dla nas komunikat, że ​​te adresy URL nie powinny być indeksowane.

Fakt, że adres URL zawiera znacznik „noindex”, niekoniecznie oznacza, że ​​jest to błąd. Oznacza to jedynie, że strona nie powinna zostać zindeksowana przez Google i inne wyszukiwarki.

Praktycznie każda strona internetowa zawiera adresy URL, które nie powinny być indeksowane przez Google. Mogą to być na przykład strony z tagami (a czasami również strony kategorii), strony logowania, strony resetowania hasła lub strona z formularzem kontaktowym. Twoim zadaniem, jako profesjonalisty SEO, jest przyjrzenie się stronom noindex i podjęcie decyzji, czy rzeczywiście powinny one zostać zablokowane przed indeksowaniem, czy też tag „noindex” mógł zostać dodany przez przypadek.

Obrazy powyżej 100 KB

Ważne jest, aby zoptymalizować i skompresować obrazy w witrynie, w celu przyspieszenia ładowanie naszej strony. Brak optymalizacji obrazów powoduje, że nasza strona, a zwłaszcza zdjęcia ładują się bardzo powoli, co czasem może być frustrujące. Przyjmuje się, że najlepiej, aby obraz nie „ważył” więcej niż 100 KB. Jednak nie zawsze można skompresować wszystkie obrazy do rozmiaru poniżej 100 KB.

Narzędzia SEO zawsze podświetlą i ostrzegą Cię o obrazach, które mają ponad 100 KB. Fakt, że witryna zawiera obrazy o rozmiarze powyżej 100 KB, niekoniecznie oznacza, że ​​witryna ma problemy z optymalizacją obrazu lub działa bardzo wolno.

Gdy zobaczysz ten błąd, sprawdź ogólną szybkość i wydajność witryny w Google PageSpeed ​​Insights i raporcie Google Search Console – Core Web Vitals. Jeśli witryna przejdzie pozytywnie ocenę Core Web Vitals , zwykle nie ma potrzeby dalszej kompresji obrazów.

Możesz posortować obrazy według rozmiaru od najcięższego do najlżejszego, aby sprawdzić, czy na określonych stronach internetowych znajdują się naprawdę duże obrazy. Jeśli tak jest, to warto zmniejszyć obrazy (rozmiar i wagę), aby nie stanowiły przeszkody dla przeglądarki.

Strony o niskiej zawartości

Większość narzędzi do audytu SEO wyróżnia strony zawierające poniżej 50 -100 słów jako strony o niskiej zawartości. Narzędzie Screaming Frog, domyślnie uważa strony poniżej 200 słów, za strony o niskiej zawartości (możesz zmienić to ustawienie podczas konfigurowania indeksowania).

To, że strona internetowa zawiera niewielką ilość tekstu, nie oznacza, że ​​jest to problem lub błąd. Istnieje wiele rodzajów stron, które mają niewielką ilość tekstów. Najczęściej są to strony logowania, strony resetowania hasła, strony tagów lub strona z formularzem kontaktowym. Narzędzie SEO oznaczy je, jako strony o niskiej zawartości, ale nie jest to problem, który uniemożliwi dobrą pozycję witryny w Google.

Niski stosunek ilości kodu HTML do tekstu

Narzędzie SEO, takie jak Semrush Site Audit powiadomi Cię o stronach, które mają niski stosunek tekstu do zawartości kodu HTML. Ten alert ma na celu wskazać strony, które mogą mieć małą liczbę słów oraz potencjalnie złożone, zawierające ogromną ilość kodu HTML. To ostrzeżenie często jest tematem problematycznym dla mniej doświadczonych lub nowych specjalistów SEO. Możesz potrzebować pomocy doświadczonego specjalisty, aby ustalić, czy jest to coś, co stanowi problem.

Istnieje wiele zmiennych, które mogą wpływać na stosunek ilości kodu HTML do tekstu i nie zawsze jest problemem, jeśli witryna posiada niski lub wysoki stosunek kodu HTML do tekstu. Wszystko zależy od rodzaju strony i jej przeznaczenia. Kolejny raz weźmy przykład strony z formularzem kontaktowym. Najczęściej jest na niej więcej kodu niż samej treści, zatem normalne jest, że narzędzie SEO ostrzeże nas wskazując dysproporcje. Nie należy jednak się tym przejmować.   

Mapa witryny XML nie jest wskazana w pliku robots.txt

Robots.txt, oprócz tego, że jest plikiem z dyrektywami dla robota wyszukiwarki, to jest również miejscem, w którym można określić adres URL mapy witryny XML, aby Google mógł ją łatwo zaindeksować i jej treść. Narzędzia SEO, np. takie jak Semrush Site Audit, powiadomią Cię, jeśli mapa witryny XML nie jest wskazana w pliku robots.txt.

Może się wydawać, że jest to poważny problem, chociaż w większości przypadków nie jest to tak istotne, ponieważ:

  • Google zwykle nie ma problemów z przemierzaniem i indeksowaniem mniejszych witryn (poniżej 10 000 stron).
  • Google nie będzie miał problemów z przemierzaniem i indeksowaniem dużych witryn, jeśli mają dobrą wewnętrzną strukturę linków.
  • mapa witryny XML nie musi być wskazana w pliku robots.txt, jeśli została prawidłowo przesłana w Google Search Console.
  • Mapa witryny XML nie musi być wskazywana w pliku robots.txt, jeśli znajduje się w standardowej lokalizacji, tj. /sitemap.xml (w większości przypadków).

Jeśli zauważysz to w narzędziach SEO jako problem o wysokim priorytecie podczas audytu SEO, upewnij się, że żadne z powyższych nie jest faktycznym problemem. Często są to alerty wskazujące na błędy, które w rzeczywistości nimi nie są. Zatem nie warto tracić czasu na usuwanie nieistotnych błędów, wskazanych w narzędziach SEO.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Social media & sharing icons powered by UltimatelySocial