Dohledatelnost

Dohledatelnost (Crawlability & Indexovatelnost) v SEO: Jak zajistit, aby vyhledávače našly a zobrazily váš web


Úvod: Proč je dohledatelnost klíčová pro úspěch webu?

Představte si, že máte skvělý obchod s perfektním zbožím, ale nikdo neví, kde stojí. Stejně tak funguje web bez správné dohledatelnosti – i kdybyste měli nejlepší obsah na světě, pokud ho vyhledávače (Google, Seznam) nenajdou, neprocházejí nebo neindexují, nikdo ho ve výsledcích vyhledávání neuvidí.

Dohledatelnost (crawlability & indexovatelnost) je základním kamenem SEO. Bez ní nemůže váš web rankovat, ať už investujete do obsahu, odkazů nebo technického SEO sebevíc.

V tomto článku se dozvíte: ✅ Co je to dohledatelnost a proč je důležitáJak vyhledávače procházejí a indexují webyJaké technické faktory ovlivňují crawlability & indexovatelnostPraktické kroky, jak zlepšit dohledatelnost vašeho webuKontrolní seznam (checklist) pro optimalizaci


1. Co je dohledatelnost (crawlability & indexovatelnost)?

Dohledatelnost se skládá ze dou důležitých procesů:

  1. Crawlability (procházitelnost) – Schopnost vyhledávačů najít a procházet vaše stránky pomocí crawlerů (robotů, jako je Googlebot).
  2. Indexovatelnost (indexability) – Schopnost vyhledávačů uložit a zobrazit vaše stránky ve výsledcích vyhledávání (SERP).

Příklad z praxe:

  • Špatná dohledatelnost: Máte e-shop s 500 produkty, ale Google indexuje jen 200, protože zbytek je skrytý za špatnými odkazy, blokován robots.txt nebo má chyby 404.
  • Dobrá dohledatelnost: Všechny důležité stránky jsou snadno dostupné, rychle se načítají a vyhledávače je pravidelně procházejí a indexují.

💡 Proč je to důležité?

  • Není indexace = není viditelnost – Pokud stránka není v indexu, neobjeví se v SERP.
  • Špatná crawlability = ztráta crawl budgetu – Vyhledávače mají omezený čas na procházení vašeho webu. Pokud ho plýtváte na špatné stránky, důležité obsahy zůstávají neprozkoumané.
  • Technické chyby = nižší ranking – Chyby jako broken links, duplicitní obsah nebo pomalé načítání mohou snížit důvěryhodnost webu v očích vyhledávačů.

2. Jak vyhledávače procházejí a indexují weby?

A) Crawling (procházení) – Jak vyhledávače objevují nové stránky?

Vyhledávače používají crawlery (roboti, jako Googlebot), kteří:

  1. Začínají na známých stránkách (např. domovská stránka vašeho webu).
  2. Sledují odkazy (interní i externí) a procházejí další stránky.
  3. Analyzují obsah a rozhodují, zda stránku indexovat (uložit do databáze).

🔍 Jak crawlery rozhodují, které stránky procházet?

  • Důležitost stránky (kolik odkazů na ni vede, jak je prolinkovaná).
  • Aktualizace obsahu (čím častěji se mění, tím častěji crawlery přicházejí).
  • Technická dostupnost (zda není blokovaná robots.txt, zda nemá chyby 4xx/5xx).
  • Crawl budget (kolik času a zdrojů vyhledávač věnuje vašemu webu).

B) Indexing (indexování) – Jak se stránky dostávají do výsledků vyhledávání?

Po procházení crawler posílá data do indexu (obrovské databáze vyhledávače). Zde se rozhoduje: ✅ Zda stránku indexovat (uložit do výsledků vyhledávání). ✅ Jak ji zařadit (podle relevance, kvality obsahu, technických faktorů).

⚠️ Co může zabránit indexaci?

  • Noindex tag (<meta name="robots" content="noindex">) – Říká vyhledávači: "Tuto stránku neukládej."
  • Blokace v robots.txt – Pokud je stránka zablokovaná, crawler ji neprochází.
  • Chyby 4xx/5xx (např. 404 – stránka neexistuje, 500 – chyba serveru).
  • Duplicitní obsah – Vyhledávače nechtějí indexovat stejný obsah vícekrát.
  • Špatná struktura URL (příliš dlouhé, s parametry, nečitelné).

3. Co ovlivňuje dohledatelnost? (Technické faktory)

A) Robots.txt – Brána pro crawlery

  • Co to je? Soubor robots.txt v kořenovém adresáři webu (např. vaše-doména.cz/robots.txt), který říká crawlerům, které stránky smí nebo nesmí procházet.
  • Problém: Pokud omylem zablokujete důležité stránky, crawler je neprochází a neindexuje.

🔧 Jak zkontrolovat robots.txt?

  1. Zadejte do prohlížeče: vaše-doména.cz/robots.txt
  2. Zkontrolujte, zda neblokujete důležité sekce (např. /produkty/).
  3. Používejte Disallow jen pro stránky, které opravdu nechcete indexovat (např. administrace, testovací stránky).

Příklad špatného robots.txt:

User-agent: *
Disallow: /produkty/  # ❌ Blokuje všechny produkty – špatně!
Disallow: /admin/     # ✅ Správně – blokuje administraci

B) Meta tagy (noindex, nofollow)

Tag Význam Kdy použít
<meta name="robots" content="noindex"> Zakazuje indexaci stránky. Pro stránky, které nechcete ve výsledcích (např. děkovací stránky po objednávce).
<meta name="robots" content="nofollow"> Zakazuje sledování odkazů na stránce. Pro stránky, kde nechcete předávat autoritu (např. reklamní odkazy).

⚠️ Častá chyba:

  • Noindex na důležitých stránkách (např. na blogových článcích).
  • Nofollow na interních odkazech (brání procházení webu).

C) Sitemap.xml – Mapování webu pro vyhledávače

  • Co to je? Soubor sitemap.xml, který vyjmenovává všechny důležité stránky a pomáhá crawlerům je rychle najít.
  • Proč je důležitý?
    • Urychluje objevování nových stránek.
    • Pomáhá prioritizovat důležité obsahy.

🔧 Jak zkontrolovat sitemap?

  1. Zadejte: vaše-doména.cz/sitemap.xml
  2. Ověřte, zda obsahuje všechny důležité stránky.
  3. Odešlete ji do Google Search Console (GSC) a Seznam Webmasteru.

D) Canonical URL & Duplicitní obsah

  • Problém: Pokud máte stejný obsah na více URL (např. produkt?color=red a produkt?color=blue), vyhledávače neví, kterou verzi indexovat.
  • Řešení: Použijte kanonický tag (rel="canonical"), který určí hlavní verzi.

Příklad:

<link rel="canonical" href="https://vaše-doména.cz/hlavni-produkt" />

⚠️ Co se stane bez kanonického tagu?

  • Vyhledávače rozdělí autoritu mezi více verzí.
  • Žádná verze nemusí rankovat dobře.

E) Orphan Pages (osamocené stránky)

  • Co to je? Stránky, na které nevede žádný odkaz (ani z menu, ani z jiných stránek).
  • Problém: Crawler je nenajde, proto je neindexuje.

🔧 Jak najít orphan pages?

  • Použijte Screaming Frog SEO Spider (nástroj pro analýzu webu).
  • Zkontrolujte Google Search Console → Pokrytí → Vyloučené stránky.

F) Redirecty (přesměrování) & Chybové stavy

Kód Význam Dopad na SEO
301 Trvalé přesměrování Předává autoritu (dobré pro změnu URL).
302 Dočasné přesměrování ⚠️ Nepředává autoritu (používejte jen dočasně).
404 Stránka neexistuje Ztráta crawl budgetu (opravte nebo přesměrujte).
5xx Chyba serveru Blokuje crawling (řešte co nejdříve).

🔧 Jak opravit chyby?

  • 301 redirect pro změněné URL.
  • 404 chyby → Buď obnovte stránku, nebo přesměrujte na relevantní obsah.
  • 5xx chyby → Zkontrolujte hosting, pluginy, server.

G) Crawl Budget – Jak efektivně využít čas crawlerů

  • Co to je? Množství času a zdrojů, které vyhledávač věnuje procházení vašeho webu.
  • Problém: Pokud máte množství nepotřebných stránek (např. filtry, staré produkty), crawler plýtvá časem a nedostane se k důležitým stránkám.

🔧 Jak optimalizovat crawl budget?

  • Blokujte nepotřebné stránky v robots.txt.
  • Používejte noindex na stránkách bez hodnoty (např. výsledky vyhledávání).
  • Zlepšete strukturu webu (max. 3 kliky od domovské stránky).

H) Rychlost načítání & Mobilní optimalizace

  • Proč je to důležité?
    • Pomalé stránky → Crawler je prochází pomaleji (ztráta crawl budgetu).
    • Neoptimalizované pro mobil → Google snižuje ranking (Mobile-First Indexing).

🔧 Jak zlepšit rychlost?

  • Optimalizujte obrázky (komprese, lazy loading).
  • Používejte caching (např. pluginy jako WP Rocket).
  • Změňte hosting (pokud je pomalý).

4. Jak zlepšit dohledatelnost? (Praktický návod krok za krokem)

Krok 1: Zkontrolujte robots.txt

Co dělat:

  • Otevřete vaše-doména.cz/robots.txt.
  • Odstraňte zbytečné blokace (např. Disallow: / blokuje celý web!).
  • Povolte důležité sekce (produkty, blog, kategorie).

Co nedělat:

  • Blokovat /css/, /js/ (brání správnému zobrazení stránek).
  • Blokovat důležité stránky (např. /produkty/).

Krok 2: Ověřte meta tagy (noindex, nofollow)

Co dělat:

  • Zkontrolujte zdrojový kód důležitých stránek (CTRL+U → hledat noindex).
  • Odstraňte noindex z stránek, které chcete rankovat.

Co nedělat:

  • Používat noindex na důležité stránky (např. hlavní kategorie).

Krok 3: Aktualizujte a odešlete sitemap.xml

Co dělat:

  • Vygenerujte sitemap (např. pomocí Yoast SEO, Rank Math nebo Screaming Frog).
  • Odešlete do Google Search Console (GSC → Sitemapy).
  • Pravidelně aktualizujte (při přidání nových stránek).

Krok 4: Opravte chyby 4xx/5xx a broken links

Co dělat:

  • Najděte chyby v Google Search Console → Pokrytí.
  • Opravte nebo přesměrujte (301 redirect).
  • Použijte nástroje jako Screaming Frog nebo Ahrefs pro kontrolu odkazů.

Krok 5: Optimalizujte kanonické URL

Co dělat:

  • Přidejte <link rel="canonical"> na všechny stránky s duplicitním obsahem.
  • Nastavte hlavní verzi (např. https://vaše-doména.cz/produkt místo https://vaše-doména.cz/produkt?color=red).

Krok 6: Zlepšete interní prolinkování

Co dělat:

  • Propojte důležité stránky z menu, footeru a souvisejících článků.
  • Použijte anchor texty (odkazový text) s klíčovými slovy.
  • Odstraňte orphan pages (stránky bez odkazů).

Krok 7: Optimalizujte rychlost a mobilní verzi

Co dělat:

  • Testujte rychlost v Google PageSpeed Insights.
  • Přepněte na rychlý hosting (např. SiteGround, Kinsta).
  • Použijte responzivní design (weby musí být mobile-friendly).

Krok 8: Monitorujte v Google Search Console

Co dělat:

  • Sledujte stav indexace (GSC → Pokrytí).
  • Kontrolujte chyby crawling (GSC → Nastavení → Statistiky procházení).
  • Používejte URL Inspection Tool (zjistíte, proč stránka není indexovaná).

5. Kontrolní seznam (Checklist) pro dohledatelnost

Krok Ano/Ne Poznámka
⬜ Robots.txt neblokuje důležité stránky
⬜ Všechny důležité stránky mají index (nemají noindex)
⬜ Sitemap.xml je aktuální a odeslaná do GSC
⬜ Kanonické URL jsou správně nastavené
⬜ Nejsou žádné orphan pages (osamocené stránky)
⬜ Všechny chyby 4xx/5xx jsou opravené
⬜ Interní prolinkování je logické a pokrývá důležité stránky
⬜ Web je rychlý a optimalizovaný pro mobil
⬜ Crawl budget není plýtván na nepotřebné stránky
⬜ Pravidelně monitoruju stav v Google Search Console

6. Časté chyby a jak se jim vyhnout

Chyba Dopad Řešení
Blokování důležitých stránek v robots.txt Stránky nejsou indexované Zkontrolujte robots.txt a odblokujte
Použití noindex na důležitých stránkách Stránky se neobjeví v SERP Odstraňte noindex
Zapomenutí na sitemap.xml Crawler nenajde nové stránky Vygenerujte a odešlete sitemap
Duplicitní obsah bez kanonických URL Rozdělená autorita, špatné ranking Přidejte rel="canonical"
Příliš mnoho 404 chyb Ztráta crawl budgetu Opravte nebo přesměrujte (301)
Pomalý web Crawler prochází pomaleji Optimalizujte rychlost
Špatná struktura URL Crawler se ztrácí Používejte čitelné URL (např. /produkt/nazev místo /p?id=123)

7. Závěr: Dohledatelnost je základ úspěchu v SEO

Bez správné dohledatelnosti nemůže váš web rankovat, ať už máte sebekvalitnější obsah nebo odkazy.

Shrnutí klíčových kroků:

  1. Zkontrolujte robots.txt – Neblokujte důležité stránky.
  2. Odstraňte noindex z klíčových stránek.
  3. Aktualizujte a odešlete sitemap.xml.
  4. Opravte chyby 4xx/5xx a broken links.
  5. Nastavte kanonické URL pro duplicitní obsah.
  6. Zlepšete interní prolinkování.
  7. Optimalizujte rychlost a mobilní verzi.
  8. Monitorujte stav v Google Search Console.

💡 Bonusový tip:

  • Pravidelně auditujte technické SEO (např. každé 3 měsíce).
  • Sledujte změny v algoritmech (Google často mění, jak prochází a indexuje weby).
  • Testujte nové stránky v URL Inspection Tool (GSC), zda jsou indexovatelné.

Použité zdroje (ČSN ISO 690)


Autor: Michal Binka Datum poslední úpravy: 2025-09-13