Crawl error

Crawl error v SEO: Co to je, jak ho identifikovat a opravit?

Pokud se zabýváte optimalizací pro vyhledávače (SEO), určitě jste se setkali s pojmem crawl error (chyba procházení). Tyto chyby mohou vážně ovlivnit viditelnost vašeho webu ve vyhledávačích, jako je Google. V tomto článku si vysvětlíme, co crawl error je, jaké typy chyb existují, jak je detekovat a jak je efektivně opravit.


Co je crawl error?

Crawl error je zpráva o tom, že vyhledávače (nejčastěji Google) během procházení vašeho webu narazily na problém, který jim znemožnil úplně nebo správně načíst určitý obsah. Tyto chyby mohou bránit indexaci stránek, což znamená, že se nemusí objevit ve výsledcích vyhledávání.

Proč jsou crawl errors důležité?

  • Zhoršená indexace – Stránky, které vyhledávače nemohou správně načíst, se nemusí objevit ve výsledcích vyhledávání.
  • Snížená viditelnost – Pokud Google nemůže procházet důležité stránky, může to negativně ovlivnit celkovou organickou návštěvnost.
  • Horší uživatelská zkušenost – Chybové stránky (např. 404) mohou frustrovat návštěvníky a zvyšovat bounce rate (procento uživatelů, kteří okamžitě opustí stránku).

Typy crawl errors a jejich příčiny

Crawl errors lze rozdělit do několika kategorií podle typu chyby. Nejčastější jsou:

1. Chybové stavové kódy HTTP

Vyhledávače při procházení webu dostávají od serveru HTTP stavové kódy, které informují o stavu stránky. Některé kódy signalizují chyby.

Kód Význam Příčina Dopad na SEO
404 (Not Found) Stránka neexistuje Smazaná stránka, špatný odkaz Stránka se neindexuje, ztráta backlinků
403 (Forbidden) Přístup zakázán Špatná konfigurace serveru, blokace v .htaccess Vyhledávač nemůže stránku načíst
500 (Internal Server Error) Vnitřní chyba serveru Problém s PHP, databází, hostingem Dočasná nedostupnost, zhoršené crawlování
503 (Service Unavailable) Služba nedostupná Přetížení serveru, údržba Dočasné vyloučení z indexace
301/302 (Redirect) Přesměrování Špatně nastavené přesměrování Zbytečné redirect řetězce zpomalují crawlování

🔹 Příklad: Pokud máte na webu odkaz na stránku /starý-produkt, ale tuto stránku jste smazali, vyhledávač dostane 404 chybu. Pokud ji nenahradíte 301 přesměrováním na novou stránku, ztratíte potenciální návštěvnost.


2. Problémy s robots.txt

Soubor robots.txt říká vyhledávačům, které stránky smějí nebo nesmějí procházet. Pokud je špatně nastaven, může blokovat důležité stránky.

🔹 Příklad špatného nastavení:

User-agent: *
Disallow: /produkty/

Toto zakáže procházení všech stránek v adresáři /produkty/, což může vést k tomu, že se tyto stránky neobjeví ve vyhledávání.

Správné řešení:

  • Zkontrolujte, zda robots.txt neblokuje důležité stránky.
  • Používejte Disallow pouze pro stránky, které opravdu nechcete indexovat (např. administrační sekce).

3. Problémy s indexací (noindex, orphan pages)

Některé stránky mohou být technicky dostupné, ale vyhledávače je neindexují kvůli:

  • Meta tagu noindex – Stránka je explicitně vyloučena z indexace.
  • Orphan pages (osamocené stránky) – Stránky, na které nevede žádný odkaz z jiných částí webu.
  • Špatná vnitřní prolinkování – Důležité stránky jsou příliš hluboko v struktuře webu.

🔹 Příklad: Máte stránku /nový-blog, ale žádná jiná stránka na ni neodkazuje a není v sitemap.xml. Vyhledávače ji nemusí najít a neindexují ji.

Správné řešení:

  • Přidejte odkazy na důležité stránky z hlavního menu nebo souvisejících článků.
  • Aktualizujte sitemap.xml a nahrajte ji do Google Search Console.
  • Odeberte noindex u stránek, které chcete indexovat.

4. Síťové a DNS chyby

Pokud vyhledávač nemůže připojit k serveru, objeví se chyby jako:

  • DNS errorDoména neodpovídá (špatné DNS nastavení).
  • Timeout – Server příliš dlouho reaguje.
  • Connection refused – Server odmítá připojení.

🔹 Příklad: Pokud máte pomalý hosting, vyhledávač může při procházení webu narazit na timeout a stránky neindexuje.

Správné řešení:

  • Zkontrolujte DNS nastavení (např. přes MXToolbox).
  • Optimalizujte rychlost serveru (lepší hosting, cache, CDN).
  • Sledujte uptime (dostupnost webu) pomocí nástrojů jako UptimeRobot.

5. Soft 404 (falešné 404 stránky)

Soft 404 je stránka, která vrací kód 200 (OK), ale obsahuje text jako "Stránka nenalezena" nebo je prázdná. Vyhledávače ji mohou považovat za chybovou, což může vést k vyloučení z indexace.

🔹 Příklad: Máte stránku /vyprodano, která zobrazuje "Tento produkt již není dostupný", ale vrátí 200 OK místo 404 nebo 410.

Správné řešení:

  • Nastavte správný HTTP kód (404 pro smazané stránky, 410 pro trvale odstraněné).
  • Přesměrujte na relevantní stránku (např. na kategorii produktů).

Jak crawl errors detekovat?

Nejlepší nástroje pro identifikaci crawl errors:

1. Google Search Console (GSC)

  • Sekce "Coverage" (dříve "Crawl Errors") ukazuje chyby indexace.
  • Crawl Stats zobrazuje, kolik stránek Google denně prochází.

📌 Jak na to?

  1. Přihlaste se do Google Search Console.
  2. Vyberte Index > Coverage.
  3. Zobrazí se seznam chyb (404, 500, blokované stránky atd.).

2. Screaming Frog SEO Spider

  • Nástroj pro technický audit webu, který najde chybové stránky, špatné redirects, duplicitní obsah atd.
  • Zdarma pro weby do 500 URL.

📌 Jak na to?

  1. Stáhněte Screaming Frog.
  2. Zadejte URL webu a spusťte crawl.
  3. V sekci "Response Codes" uvidíte všechny chybové stránky.

3. Ahrefs / SEMrush

  • Tyto nástroje mají Site Audit, který detekuje crawl errors a další SEO problémy.

Jak crawl errors opravit? (Praktický návod)

Krok 1: Analýza chyby

  • 404 chyby → Zkontrolujte, zda stránka má být smazána, nebo zda potřebuje 301 redirect.
  • 5xx chyby → Zkontrolujte serverové logy, zda není problém s hostingem.
  • 3xx (redirects) → Odstraňte zbytečné redirect řetězce (např. A → B → C místo A → C).
  • robots.txt → Ověřte, zda neblokuje důležité stránky.
  • Noindex → Zkontrolujte, zda je nastaven správně.

Krok 2: Oprava problému

Problém Řešení
404 chyba Přidejte 301 redirect na relevantní stránku nebo stránku odeberte z indexu.
500/503 chyba Opravte serverové chyby, zlepšete výkon hostingu.
Špatné redirects Nahraďte řetězce redirectů přímým 301 přesměrováním.
Blokace v robots.txt Upravte soubor tak, aby povoloval procházení důležitých stránek.
Orphan pages Přidejte vnitřní odkazy nebo stránku zařaďte do sitemap.xml.
Soft 404 Nahraďte 200 OK správným kódem (404/410) nebo přesměrujte.

Krok 3: Ověření opravy

  • Požádejte o znovuzindexaci v Google Search Console ("Request Indexing").
  • Sledujte, zda chyby mizí v reportu "Coverage".
  • Pravidelně kontrolujte crawl errors (např. 1x měsíčně).

Krok 4: Prevence do budoucna

Pravidelné technické audity (např. pomocí Screaming Frog). ✅ Udržujte čistou strukturu URL (vyhýbejte se zbytečným redirectům). ✅ Optimalizujte robots.txt a sitemap.xml. ✅ Monitorujte uptime a rychlost webu.


Tipy z praxe pro lepší crawlování

  1. Důležité stránky mějte max. 3 kliky od domovské stránky (lepší crawlability).
  2. Používejte canonical tagy pro duplicitní obsah.
  3. Omezte počet redirectů (ideálně max. 1–2 přesměrování).
  4. Optimalizujte rychlost načítání (Google preferuje rychlé weby).
  5. Pravidelně aktualizujte sitemap.xml a nahrajte ji do GSC.

Závěr

Crawl errors mohou vážně poškodit viditelnost vašeho webu ve vyhledávačích. Důležité je: ✔ Pravidelně monitorovat chyby pomocí Google Search Console a dalších nástrojů. ✔ Opravovat problémy podle jejich typu (404, 500, robots.txt atd.). ✔ Optimalizovat strukturu webu pro lepší procházení vyhledávači. ✔ Prevence pomocí technických auditů a správného nastavení serveru.

Pokud se crawl errors budete věnovat systematicky, zlepšíte indexaci, zvýšíte organickou návštěvnost a posílíte pozice ve vyhledávání.


Zdroje


Autor: Michal Binka Datum poslední úpravy: 2025-09-13