De-index
De-indexace (de-index) v SEO: Co to znamená a jak ji řešit?
Pokud se zabýváte SEO, určitě jste se setkali s pojmem de-indexace (nebo de-index). Co to ale přesně znamená? Proč se stránky z indexu vyhledávačů vyřazují? A jak zjistit, zda je vaše stránka de-indexovaná?
V tomto článku si vysvětlíme, co de-indexace je, proč k ní dochází, jak ji identifikovat a jak ji řešit – ať už jde o záměrné nebo nezáměrné vyřazení stránky z vyhledávačů.
Co je de-indexace (de-index)?
De-indexace znamená, že vyhledávač (např. Google) odstranil vaši stránku ze svého indexu – databáze, ve které ukládá všechny stránky, které může zobrazit ve výsledcích vyhledávání.
Co se stane, když je stránka de-indexovaná?
- Nezobrazuje se ve vyhledávání – Uživatelé ji nenajdou přes Google, Seznam nebo jiné vyhledávače.
- Zůstává dostupná na webu – Pokud znáte přímý odkaz, můžete ji stále navštívit.
- Nemá organický provoz – Protože se nezobrazuje ve výsledcích, nepřináší návštěvnost z vyhledávačů.
🔹 Příklad: Máte e-shop a jedna z kategorií (např. /zimni-boty
) je de-indexovaná. Pokud někdo vyhledá "zimní boty", vaše stránka se nezobrazí – i když je stále funkční a dostupná přes přímý odkaz.
Proč dochází k de-indexaci?
De-indexace může být záměrná (vy ji chcete) nebo nezáměrná (stala se chybou). Podívejme se na nejčastější důvody.
1. Záměrná de-indexace (chcete, aby se stránka nezobrazovala)
Někdy nechcete, aby se určité stránky zobrazovaly ve vyhledávačích. Typické případy:
- Děkovací stránky po objednávce (např.
/dekujeme-za-objednavku
) - Interní stránky pro zaměstnance (např.
/admin
) - Testovací stránky (např.
/test
) - Starý, neaktuální obsah (např. akce, které už neplatí)
Jak to udělat? Použijete meta tag noindex
nebo X-Robots-Tag v HTTP hlavičce.
🔹 Příklad kódu (meta tag noindex):
<meta name="robots" content="noindex">
🔹 Příklad HTTP hlavičky (X-Robots-Tag):
X-Robots-Tag: noindex
⚠️ Důležité:
noindex
≠nofollow
–nofollow
říká vyhledávačům, aby nebraly v potaz odkazy na stránce, ale nezabrání indexaci.noindex
≠robots.txt
– Souborrobots.txt
pouze blokuje crawlování, ale stránka může být stále indexovaná, pokud na ni odkazují jiné weby.
2. Nezáměrná de-indexace (stránka zmizela z vyhledávání omylem)
Pokud nechcete, aby vaše stránka byla de-indexovaná, ale přesto se to stalo, je třeba zjistit proč. Nejčastější důvody:
A) Technické chyby
- Chybové HTTP stavy (4XX, 5XX) – Pokud stránka vrací chybu (např. 404 – Not Found, 500 – Internal Server Error), Google ji může vyřadit z indexu.
- Špatné přesměrování (301, 302) – Pokud je stránka přesměrována na neexistující URL, může být de-indexovaná.
- Nedostupnost serveru – Pokud je web často offline, vyhledávače ho mohou přestat indexovat.
🔹 Příklad: Máte stránku /nabidka
, ale omylem ji smažete a nezajistíte přesměrování. Google ji najde jako 404 a po čase ji de-indexuje.
B) Blokování crawlerů (robots.txt, meta robots)
- Chybné nastavení
robots.txt
– Pokud v tomto souboru zakážete procházení důležitých stránek, Google je nemusí indexovat. - Omyl v meta tagu
noindex
– Pokud náhodou přidátenoindex
na důležitou stránku, bude de-indexovaná.
🔹 Příklad chybného robots.txt
:
User-agent: *
Disallow: /produkty/
→ Tím zakážete procházení celé sekce /produkty/
, což může vést k de-indexaci všech produktů.
C) Duplicitní obsah a špatné canonical tagy
- Duplicitní stránky – Pokud máte více stejných nebo velmi podobných stránek, Google si vybere jednu jako kanonickou a ostatní může de-indexovat.
- Špatně nastavený
rel="canonical"
– Pokud odkazujete na neexistující nebo chybnou kanonickou URL, může dojít k de-indexaci.
🔹 Příklad: Máte dva téměř identické články:
/clanek-o-seo
/jak-optimalizovat-seo
Pokud na obou stránkách nastavíte stejný canonical tag (např. na /clanek-o-seo
), Google může druhou stránku de-indexovat jako duplicitní.
D) Ruční nebo algoritmické penalizace
- Porušení pokynů pro webmastery – Pokud Google zjistí, že váš web používá spamové techniky (např. skryté texty, nekvalitní odkazy, cloaking), může ho penalizovat a de-indexovat některé stránky.
- Algoritmické aktualizace – Některé aktualizace (např. Google Core Updates) mohou vést k de-indexaci stránek s nízkou kvalitou.
🔹 Příklad: Pokud máte stránku plnou zkopírovaného obsahu z jiných webů, Google ji může považovat za nízkokvalitní a de-indexovat.
E) Dočasná de-indexace při aktualizacích
- Někdy Google dočasně vyřadí stránky z indexu při větších aktualizacích a později je znovu zaindexuje.
- Tento problém obvykle sám zmizí po několika dnech.
Jak zjistit, zda je stránka de-indexovaná?
Pokud máte podezření, že vaše stránka není v indexu, můžete to ověřit několika způsoby:
1. Použití operátoru site:
v Google
Zadejte do vyhledávače:
site:vasdomain.cz/konkretni-url
- Pokud se stránka zobrazí → Je indexovaná.
- Pokud se nezobrazí → Je de-indexovaná (nebo má problém s indexací).
🔹 Příklad:
site:seo-prirucka.cz/de-indexace
→ Pokud se nezobrazí, stránka není v indexu.
2. Kontrola v Google Search Console (GSC)
- Přihlaste se do Google Search Console.
- Vlevo klikněte na "Indexace" → "Stav indexace".
- Zadejte URL a zkontrolujte, zda je "Indexována" nebo "Vyloučena".
🔹 Co znamenají jednotlivé stavy?
Stav | Význam |
---|---|
Indexována | Stránka je v indexu a může se zobrazovat ve vyhledávání. |
Vyloučena (noindex) | Stránka má noindex a není indexovaná. |
Vyloučena (robots.txt) | Crawler nemůže stránku procházet kvůli robots.txt . |
Chyba (404, 500 atd.) | Stránka vrací chybový kód a není indexovatelná. |
Duplicitní obsah | Google vybral jinou verzi jako kanonickou. |
3. Kontrola meta tagů a HTTP hlaviček
- Zkontrolujte zdrojový kód stránky (klikněte pravým tlačítkem → "Zobrazit zdrojový kód").
- Hledejte:
<meta name="robots" content="noindex">
- Kontrola HTTP hlaviček (pomocí nástrojů jako Redirect Path nebo Screaming Frog).
4. Kontrola souboru robots.txt
- Zadejte ve prohlížeči:
vasdomain.cz/robots.txt
- Zkontrolujte, zda není blokována důležitá část webu.
🔹 Příklad špatného robots.txt
:
User-agent: *
Disallow: /blog/
→ Tím zakážete indexaci celého blogu.
5. Kontrola stavu serveru (HTTP kódy)
- Použijte nástroje jako HTTP Status Code Checker.
- 200 OK → Stránka je dostupná.
- 404 Not Found → Stránka neexistuje.
- 500 Internal Server Error → Chyba serveru.
Jak řešit de-indexaci?
Pokud zjistíte, že vaše stránka je de-indexovaná nezáměrně, postupujte podle těchto kroků:
1. Odstraňte noindex
(pokud je tam omylem)
- Vymažte z kódu:
<meta name="robots" content="noindex">
- Zkontrolujte HTTP hlavičky (pomocí Screaming Frog).
2. Opravte robots.txt
(pokud blokuje důležité stránky)
- Upravte soubor
robots.txt
tak, aby nepřekážel crawlerům. - Příklad správného
robots.txt
:User-agent: * Disallow: /admin/ Disallow: /test/ Allow: /
3. Opravte chybové HTTP stavy
- 404 (Not Found) → Obnovte stránku nebo nastavte 301 přesměrování na novou URL.
- 500 (Server Error) → Opravte chyby na serveru (kontaktujte hosting).
4. Vyřešte duplicitní obsah
- Nastavte správný
rel="canonical"
na hlavní verzi obsahu. - Použijte 301 přesměrování pro staré duplicitní stránky.
🔹 Příklad správného canonical tagu:
<link rel="canonical" href="https://vasdomain.cz/hlavni-stranka" />
5. Požádejte o znovuzaindexování v Google Search Console
- Přejděte do Google Search Console.
- Vložte URL do "Inspekce URL".
- Klikněte na "Požádat o indexování".
⏳ Čas indexace:
- Obvykle trvá několik dní až týdnů, než Google stránku znovu zaindexuje.
6. Řešení penalizací (pokud jde o ruční zásah)
- Zkontrolujte zprávy v GSC (sekce "Bezpečnost a ruční zásahy").
- Odstraňte problémy (např. nekvalitní odkazy, skryté texty).
- Požádejte o přezkoumání v GSC.
Kdy je de-indexace žádoucí?
Někdy chcete, aby byly některé stránky de-indexované. Typické případy: ✅ Interní stránky (např. /admin
, /login
) ✅ Děkovací stránky (např. /dekujeme-za-objednavku
) ✅ Testovací stránky (např. /test
, /staging
) ✅ Starý, neaktuální obsah (např. akce, které už neplatí) ✅ Stránky s nízkou kvalitou (např. tenký obsah, kopie)
Jak to udělat správně?
- Použijte
noindex
(nejlepší řešení). - Nepoužívejte
robots.txt
– to pouze blokuje crawlování, ale stránka může být stále indexovaná, pokud na ni odkazují jiné weby.
Související pojmy (pro lepší pochopení)
Pojem | Význam |
---|---|
Indexace | Proces, kdy vyhledávač uloží stránku do své databáze (indexu). |
Crawlování | Proces, kdy robot vyhledávače (crawler) prochází a analyzuje stránky. |
noindex |
Příkaz pro vyhledávače, aby stránku nezaindexovaly. |
nofollow |
Příkaz, aby vyhledávače nebraly v potaz odkazy na stránce (neovlivňuje indexaci). |
robots.txt |
Soubor, který říká crawlerům, které části webu nemají procházet. |
Canonical URL | Hlavní verze stránky, kterou má vyhledávač indexovat (předejde duplicitám). |
404 Not Found | Chybový kód – stránka neexistuje. |
301 Redirect | Trvalé přesměrování na novou URL. |
Závěr: Jak předejít nechtěné de-indexaci?
- Pravidelně kontrolujte indexaci v Google Search Console.
- Nepoužívejte
noindex
omylem – zkontrolujte kód a HTTP hlavičky. - Opravujte chybové stavy (404, 500) a zajistěte dostupnost webu.
- Nastavte správně
robots.txt
– neblokujte důležité stránky. - Řešte duplicitní obsah pomocí
canonical
tagů. - Sledujte aktualizace vyhledávačů – někdy dochází k dočasné de-indexaci.
💡 Tip: Pokud máte velký web, použijte nástroj jako Screaming Frog nebo Ahrefs pro automatickou kontrolu indexace.
Zdroje
- GOOGLE. How Search Works: Crawling and Indexing [online]. [cit. 2025-09-13]. Dostupné z: https://www.google.com/intl/cs/search/howsearchworks/crawling-indexing/
- GOOGLE. Search Console Help: Fix indexing issues [online]. [cit. 2025-09-13]. Dostupné z: https://support.google.com/webmasters/answer/7440203
- MOZ. Robots Meta Tag & X-Robots-Tag HTTP Header Specifications [online]. [cit. 2025-09-13]. Dostupné z: https://moz.com/learn/seo/robots-meta-directives
- SEMRUSH. How to Fix Deindexed Pages [online]. [cit. 2025-09-13]. Dostupné z: https://www.semrush.com/blog/deindexed-pages/
- AHREFS. Why Are My Pages Not Indexed by Google? [online]. [cit. 2025-09-13]. Dostupné z: https://ahrefs.com/blog/pages-not-indexed/
Autor: Michal Binka Datum poslední úpravy: 13. září 2025