robots.txt - test, vygenerování

Robots.txt: Kompletní průvodce tvorbou, testováním a optimalizací pro SEO

Robots.txt je klíčový soubor, který řídí, jak vyhledávače (jako Google, Bing nebo Seznam) procházejí a indexují váš web. Špatně nastavený robots.txt může způsobit, že důležité stránky nebudou indexovány, nebo naopak, že se do vyhledávání dostanou stránky, které tam nechcete.

V tomto článku se dozvíte: ✅ Co je robots.txt a jak funguje (i pro úplné začátečníky) ✅ Jak správně napsat a vygenerovat robots.txt (ručně i automaticky) ✅ Jak otestovat, zda robots.txt funguje správně (nástroje a postupy) ✅ Časté chyby a jak se jim vyhnoutPraktické příklady pro různé typy webů (e-shopy, blogy, firemní weby)


1. Co je robots.txt a k čemu slouží?

Robots.txt je textový soubor umístěný v kořenovém adresáři webu (např. https://vasweb.cz/robots.txt). Slouží jako "návod" pro vyhledávací roboty (crawlery), které procházejí web a rozhodují, které stránky mají indexovat (ukazovat ve výsledcích vyhledávání) a které nikoli.

Co robots.txt dělá?

Řídí přístup crawlerů – Můžete zakázat nebo povolit přístup k určitým částem webu. ✔ Optimalizuje crawling – Pomáhá vyhledávačům efektivně procházet váš web a šetří crawl budget (počet stránek, které vyhledávač denně prohlédne). ✔ Umožňuje uvádět sitemap.xml – Pomáhá vyhledávačům rychleji najít všechny důležité stránky.

Co robots.txt NEdělá?

Nezabezpečuje web – Pokud chcete skrýt citlivé údaje (např. administraci), robots.txt nestačí! Použijte heslo, .htaccess nebo jiná bezpečnostní opatření. ❌ Nezaručuje, že stránky nebudou indexovány – Někteří crawleři (např. zločinecké boty) robots.txt ignorují. ❌ Nenahrazuje meta tag noindex – Pokud chcete stránku úplně vyloučit z indexace, použijte <meta name="robots" content="noindex">.


2. Základní syntaxe robots.txt (jak se píše)

Robots.txt používá jednoduchá pravidla ve formátu:

User-agent: [název robota]
Disallow: [cesta, kterou zakazujete]
Allow: [cesta, kterou povolujete]
Sitemap: [odkaz na sitemap.xml]

Vysvětlení základních příkazů

Příkaz Význam Příklad
User-agent Určuje, pro kterého robota platí pravidlo. * znamená všechny roboty. User-agent: * (všechny)
User-agent: Googlebot (jen Google)
Disallow Zakazuje přístup k dané cestě. Disallow: /admin/ (zakáže /admin/)
Allow Povoluje přístup k dané cestě (přepíše Disallow). Allow: /public/ (povolí /public/)
Sitemap Ukazuje, kde je sitemap.xml (mapa webu). Sitemap: https://vasweb.cz/sitemap.xml

Praktické příklady robots.txt

🔹 Příklad 1: Povolit vše a uvést sitemap

User-agent: *
Disallow:
Sitemap: https://vasweb.cz/sitemap.xml

Všechny roboty mohou procházet celý web.

🔹 Příklad 2: Zablokovat administraci a přihlášení

User-agent: *
Disallow: /wp-admin/
Disallow: /login/
Disallow: /admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://vasweb.cz/sitemap.xml

Zakáže přístup do administrace, ale povolí admin-ajax.php (důležité pro WordPress).

🔹 Příklad 3: Zablokovat konkrétního robota (např. škodlivé boty)

User-agent: BadBot
Disallow: /

User-agent: *
Disallow:
Sitemap: https://vasweb.cz/sitemap.xml

Zakáže přístup pro BadBot, ostatní roboty mají volný přístup.

🔹 Příklad 4: Zablokovat všechny obrázky v určité složce

User-agent: Googlebot-Image
Disallow: /images/private/

Google nebude indexovat obrázky v /images/private/.


3. Jak vygenerovat robots.txt? (Ručně i automaticky)

🔹 1. Ruční tvorba (pro pokročilé)

  1. Vytvořte soubor robots.txt v textovém editoru (Notepad, VS Code, Sublime Text).
  2. Napište pravidla podle potřeby (viz příklady výše).
  3. Uložte jako čistý text (UTF-8) – Důležité, aby soubor neměl skryté formátování!
  4. Nahrajte do kořenového adresáře (např. přes FTP nebo správce souborů v hostingu).

Důležité:

  • Soubor musí být přesně pojmenován robots.txt (malá písmena, bez mezer).
  • Musí být v kořenovém adresáři (např. https://vasweb.cz/robots.txt).

🔹 2. Automatická generace (pro začátečníky)

🔸 a) Pomocí CMS (WordPress, Joomla, Shopify atd.)

  • WordPress:
    • Použijte plugin Yoast SEONástroje → Editor souborů → upravte robots.txt.
    • Nebo Rank MathDashboard → Edit robots.txt.
  • Shopify:
    • Shopify automaticky generuje robots.txt, ale můžete ho upravit v /robots.txt.liquid (pokročilí).
  • Joomla:
    • V Rozšíření → Pluginy najděte "System - robots.txt" a upravte ho.

🔸 b) Pomocí online generátorů

Některé nástroje umožňují automaticky vygenerovat robots.txt na základě vašich požadavků:

Pozor: Automatické generátory nemusí znát specifické potřeby vašeho webu. Vždy zkontrolujte výsledek!

🔸 c) Pomocí hostingových nástrojů

Někteří hostinové (např. Webhosting CZ, WEDOS, Forpsi) umožňují editovat robots.txt přímo v administraci:

  • cPanelSouborový manažer → najděte robots.txt v kořenovém adresáři.
  • PleskSoubory → upravte robots.txt.

4. Jak otestovat robots.txt? (Krok za krokem)

Špatně nastavený robots.txt může způsobit, že váš web nebude indexován! Proto je důležité ho otestovat.

🔹 1. Základní kontrola (ručně)

  1. Otevřete robots.txt v prohlížeči:
    • Zadejte https://vasweb.cz/robots.txt.
    • Pokud se zobrazí 404 chyba, soubor neexistuje a musíte ho vytvořit.
  2. Zkontrolujte syntaxi:
    • Žádné diakritické znaky (á, é, í, ó, ú).
    • Žádné mezery na začátku řádku.
    • Každý příkaz musí být na novém řádku.

🔹 2. Testování pomocí Google Search Console

Google Search Console (GSC) je nejlepším nástrojem pro testování robots.txt.

Postup:

  1. Přihlaste se do Google Search Console.
  2. Vyberte svůj web.
  3. Přejděte na "Nastavení" → "robots.txt Tester" (nebo vyhledejte "Test robots.txt").
  4. Vložte svůj robots.txt (nebo ho upravte přímo v nástroji).
  5. Otestujte konkrétní URL:
    • Zadejte cestu (např. /admin/) a zjistěte, zda je povolená (Allowed) nebo zakázaná (Blocked).
  6. Odeslat změny (pokud jste upravovali přímo v GSC).

📌 Příklad testu v GSC: Příklad testu robots.txt v Google Search Console (Zdroj: Google Developers)


🔹 3. Testování pomocí Bing Webmaster Tools

Pokud chcete zkontrolovat, jak robots.txt vidí Bing, použijte:

  1. Přihlaste se do Bing Webmaster Tools.
  2. Vyberte svůj web.
  3. Přejděte na "Konfigurace webu" → "robots.txt".
  4. Otestujte syntaxi a přístupnost.

🔹 4. Validace syntaxe (online nástroje)

Pokud chcete rychle zkontrolovat chyby, použijte:


🔹 5. Kontrola sitemap.xml

Ujistěte se, že: ✅ Sitemap je uvedena v robots.txt (např. Sitemap: https://vasweb.cz/sitemap.xml). ✅ Sitemap je dostupná (otevřete ji v prohlížeči). ✅ Neobsahuje chyby (zkontrolujte v Google Search Console → Sitemapy).


5. Časté chyby v robots.txt a jak se jim vyhnout

Chyba Důsledek Jak opravit
Disallow: / (zakázat vše) Vyhledávače neprocházejí celý webžádná indexace. Použijte Disallow: (prázdné) nebo specifikujte konkrétní cesty.
Chybějící Sitemap Vyhledávače mohou přehlédnout důležité stránky. Přidejte Sitemap: https://vasweb.cz/sitemap.xml.
Špatné cesty (např. Disallow: admin místo Disallow: /admin/) Pravidlo nefunguje, protože chybí /. Vždy používejte úplné cesty (např. /admin/).
Použití noindex v robots.txt robots.txt nepodporuje noindex! Použijte <meta name="robots" content="noindex"> v HTML.
Zakázání CSS/JS souborů Google neuvidí správně naformátovaný webhorší SEO. Nepoužívejte Disallow na /css/, /js/.
Zapomenutí na aktualizaci po změnách webu Nové stránky nejsou crawlovány. Pravidelně kontrolujte a aktualizujte robots.txt.

6. Jak optimalizovat robots.txt pro SEO?

🔹 1. Šetřete crawl budget

  • Crawl budget = počet stránek, které Google denně prohlédne.
  • Zablokujte zbytečné stránky (např. /search/, /tag/, /author/).
  • Povolte důležité stránky (články, produkty, kategorie).

📌 Příklad pro e-shop:

User-agent: *
Disallow: /cart/
Disallow: /checkout/
Disallow: /search/
Disallow: /account/
Allow: /products/
Sitemap: https://vasweb.cz/sitemap.xml

🔹 2. Používejte Allow pro výjimky

Pokud zakazujete celou složku, ale chcete povolit některé soubory:

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

🔹 3. Oddělte pravidla pro různé roboty

Někteří roboty (např. Googlebot-Image) potřebují jiná pravidla:

User-agent: Googlebot-Image
Disallow: /images/private/

User-agent: *
Disallow: /admin/

🔹 4. Nepoužívejte robots.txt pro noindex

Pokud chcete trvale odstranit stránku z indexu, použijte:

  • Meta tag: <meta name="robots" content="noindex">
  • HTTP hlavičku: X-Robots-Tag: noindex

7. Praktické příklady robots.txt pro různé weby

🔹 1. Robots.txt pro blog (WordPress)

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /readme.html
Disallow: /license.txt
Disallow: /xmlrpc.php
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/feed/
Disallow: /?s=
Disallow: /?attachment_id=
Disallow: /?p=
Sitemap: https://vasblog.cz/sitemap_index.xml

🔹 2. Robots.txt pro e-shop (Shopify, WooCommerce)

User-agent: *
Disallow: /cart/
Disallow: /checkout/
Disallow: /orders/
Disallow: /account/
Disallow: /search/
Disallow: /collections/*+*
Disallow: /collections/*?*
Disallow: /products/*+*
Disallow: /products/*?*
Allow: /products/
Allow: /collections/
Sitemap: https://vaseshop.cz/sitemap.xml

🔹 3. Robots.txt pro firemní web

User-agent: *
Disallow: /admin/
Disallow: /login/
Disallow: /private/
Disallow: /tmp/
Disallow: /backup/
Allow: /
Sitemap: https://vasfirma.cz/sitemap.xml

8. Často kladené dotazy (FAQ)

❓ Musím mít robots.txt?

Není povinný, ale doporučuje se. Bez něj vyhledávače procházejí vše, což může být neefektivní (plýtvání crawl budgetem).

❓ Jak zjistit, zda robots.txt blokuje důležité stránky?

  1. Použijte Google Search Console → "Test robots.txt".
  2. Zkontrolujte Index Coverage Report (zda nejsou stránky vyloučené).

❓ Může robots.txt zlepšit SEO?

Ano, ale nepřímo.

  • Šetří crawl budget (vyhledávače se soustředí na důležité stránky).
  • Zabraňuje indexaci duplicitního obsahu (např. /tag/, /category/).
  • Zlepšuje rychlost crawlování (vyhledávače neplýtvají čas na zbytečné stránky).

❓ Co když omylem zablokuju důležité stránky?

  1. Opravte robots.txt.
  2. Požádejte o znovuprocházení v Google Search Console ("Inspekce URL" → "Požádat o indexaci").

❓ Jak zablokovat všechny roboty kromě Google?

User-agent: *
Disallow: /

User-agent: Googlebot
Allow: /

Jak správně pracovat se souborem robots.txt a jak do něj přidat sitemapu

Soubor robots.txt je pro vyhledávače jako je Google, Seznam nebo Bing klíčovým nástrojem pro komunikaci s webovou stránkou. Nejedná se o příkaz, který by striktně bránil vyhledávačům v procházení a indexování stránek, ale spíše o pokyn nebo doporučení. Díky němu můžete říct, které části vašeho webu by měly být procházeny a které by naopak procházeny být neměly. Proč? Abyste šetřili crawl budget, tedy "rozpočet" pro procházení, který Google vašemu webu přiděluje. Pokud má Google procházet zbytečné a irelevantní stránky, spotřebovává tím svůj crawl budget, který by jinak mohl využít na procházení důležitého a hodnotného obsahu.

V tomto článku se podíváme na to, jak vytvořit robots.txt, jak ho testovat a jak do něj správně vložit sitemapu.

Jak funguje robots.txt 

Soubor robots.txt se nachází v kořenovém adresáři vašeho webu, což znamená, že ho najdete na adrese vasestranka.cz/robots.txt. Obsahuje jednoduchá pravidla, která jsou určena pro webové roboty (neboli crawlers nebo bots).

Základní pravidla jsou:

  • User-agent: Určuje, pro kterého robota se pravidlo vztahuje. User-agent: * znamená, že se pravidlo vztahuje na všechny roboty. Pokud byste chtěli pravidlo jen pro Google, použili byste User-agent: Googlebot.

  • Disallow: Říká, co robot nemá procházet. Disallow: / znamená, že robot nesmí procházet nic na webu. Disallow: /admin/ znamená, že nesmí procházet složku admin.

  • Allow: Přesný opak, tedy povoluje procházení. Toto se používá ve chvíli, kdy v jedné složce něco zakážete, ale v ní je ještě jiná složka, kterou chcete povolit.

Příklad robots.txt

Zde je jednoduchý příklad, který zakazuje procházení složky /wp-admin/ a zároveň odkazuje na sitemapu.

User-agent: *
Disallow: /wp-admin/
Sitemap: https://www.vasestranka.cz/sitemap_index.xml

 

1. Vytvoření souboru robots.txt 

Pokud váš web ještě nemá soubor robots.txt, je jeho vytvoření velmi snadné. Stačí si otevřít textový editor, jako je Poznámkový blok (Notepad) nebo VS Code, a napsat pravidla. 

Krok 1: Otevřete textový editor

Otevřete jakýkoliv jednoduchý textový editor.

Krok 2: Napište pravidla

Zvažte, které části vašeho webu nepotřebují být indexovány vyhledávači. Často se jedná o:

  • stránky pro přihlášení,

  • administrační sekce (např. /wp-admin/),

  • výsledky interního vyhledávání (/search/),

  • stránky s parametry, které nemají jedinečný obsah (/kategorie?barva=modra).

Nezapomeňte, že robots.txt slouží jen jako doporučení, nikoli příkaz. Pokud chcete mít 100% jistotu, že se stránka neobjeví ve výsledcích vyhledávání, použijte meta tag noindex v hlavičce stránky.

Krok 3: Uložte soubor

Uložte soubor pod názvem robots.txt s kódováním UTF-8 a bez přípony .txt (některé editory ji automaticky přidávají, zkontrolujte to). 

Krok 4: Nahrajte soubor na server

Nahrajte soubor robots.txt do kořenového adresáře vašeho webu. To můžete udělat pomocí FTP klienta (např. FileZilla) nebo přes souborového manažera ve vašem hostingu. Po nahrání by měl být soubor dostupný na adrese https://www.vasestranka.cz/robots.txt.

2. Testování souboru robots.txt

Jakmile máte soubor nahraný, je důležité ho otestovat. Neexistuje nic horšího než omylem zakázat procházení celého webu.

Google Search Console 

Nejlepší nástroj pro testování robots.txt je Google Search Console. Dříve zde existoval přímo nástroj "Tester souboru robots.txt", ale Google ho již integroval přímo do nástroje Procházení > Nástroje pro roboty.

  1. Přihlaste se do Google Search Console: V levém menu klikněte na Nastavení a poté na Ověření vlastnictví.

  2. Použijte nástroj Kontrola URL: Zadejte do horního vyhledávacího pole URL adresu, kterou chcete zkontrolovat.

  3. Zobrazí se informace o indexování: Google vám řekne, zda je stránka indexována, zda je v robots.txt zakázána, a pokud ano, jakým pravidlem.

Pokud nemáte přístup do Google Search Console, můžete použít online robots.txt validátory. Stačí do Googlu zadat "robots.txt validator" a vybrat si jeden z nástrojů, které vám pomohou ověřit správnost syntaxe.

3. Vložení sitemapy do robots.txt

Sitemapa je soubor (obvykle ve formátu .xml), který obsahuje seznam všech důležitých stránek na vašem webu. Slouží k tomu, aby vyhledávačům usnadnila nalezení a procházení obsahu. Vložení odkazu na sitemapu do souboru robots.txt je dobrá praxe, protože to vyhledávačům dává jasný signál, kde sitemapu hledat.

Krok 1: Najděte URL vaší sitemapy 

Většina moderních CMS (jako je WordPress s pluginem Yoast SEO nebo Rank Math) generuje sitemapu automaticky. Typické URL sitemapy jsou:

  • https://www.vasestranka.cz/sitemap.xml

  • https://www.vasestranka.cz/sitemap_index.xml

  • https://www.vasestranka.cz/sitemap.xml.gz

Krok 2: Přidejte řádek do robots.txt

Na konec vašeho robots.txt souboru přidejte řádek Sitemap: a za něj vložte kompletní URL sitemapy.

Správný formát:

Sitemap: https://www.vasestranka.cz/sitemap_index.xml

Chybný formát (nepoužívejte):

Sitemap: /sitemap_index.xml

Použijte celou URL i s protokolem https://, aby bylo vyhledávačům naprosto jasné, kde sitemapu najít.

Krok 3: Nahrajte upravený robots.txt na server

Po úpravě uložte soubor a nahrajte ho zpět do kořenového adresáře vašeho webu.


9. Závěr: Jak správně pracovat s robots.txt?

  1. Vytvořte nebo upravte robots.txt (ručně nebo pomocí nástrojů).
  2. Otestujte ho v Google Search Console a Bing Webmaster Tools.
  3. Zkontrolujte, zda neblokuje důležité stránky.
  4. Pravidelně aktualizujte (při změnách struktury webu).
  5. Nepoužívejte ho jako bezpečnostní opatření (pro citlivé údaje použijte .htaccess nebo heslo).

🚀 Pokud si nejste jisti, použijte tento základní template:

User-agent: *
Disallow: /admin/
Disallow: /login/
Disallow: /private/
Allow: /
Sitemap: https://vasweb.cz/sitemap.xml

10. Zdroje


Autor: Michal Binka Datum poslední úpravy: 20.9.2025 Model: Mistral Large (AI aplikace OCTODEEP)