robots.txt - test, vygenerování
Robots.txt: Kompletní průvodce tvorbou, testováním a optimalizací pro SEO
Robots.txt je klíčový soubor, který řídí, jak vyhledávače (jako Google, Bing nebo Seznam) procházejí a indexují váš web. Špatně nastavený robots.txt může způsobit, že důležité stránky nebudou indexovány, nebo naopak, že se do vyhledávání dostanou stránky, které tam nechcete.
V tomto článku se dozvíte: ✅ Co je robots.txt a jak funguje (i pro úplné začátečníky) ✅ Jak správně napsat a vygenerovat robots.txt (ručně i automaticky) ✅ Jak otestovat, zda robots.txt funguje správně (nástroje a postupy) ✅ Časté chyby a jak se jim vyhnout ✅ Praktické příklady pro různé typy webů (e-shopy, blogy, firemní weby)
1. Co je robots.txt a k čemu slouží?
Robots.txt je textový soubor umístěný v kořenovém adresáři webu (např. https://vasweb.cz/robots.txt
). Slouží jako "návod" pro vyhledávací roboty (crawlery), které procházejí web a rozhodují, které stránky mají indexovat (ukazovat ve výsledcích vyhledávání) a které nikoli.
Co robots.txt dělá?
✔ Řídí přístup crawlerů – Můžete zakázat nebo povolit přístup k určitým částem webu. ✔ Optimalizuje crawling – Pomáhá vyhledávačům efektivně procházet váš web a šetří crawl budget (počet stránek, které vyhledávač denně prohlédne). ✔ Umožňuje uvádět sitemap.xml – Pomáhá vyhledávačům rychleji najít všechny důležité stránky.
Co robots.txt NEdělá?
❌ Nezabezpečuje web – Pokud chcete skrýt citlivé údaje (např. administraci), robots.txt nestačí! Použijte heslo, .htaccess nebo jiná bezpečnostní opatření. ❌ Nezaručuje, že stránky nebudou indexovány – Někteří crawleři (např. zločinecké boty) robots.txt ignorují. ❌ Nenahrazuje meta tag noindex
– Pokud chcete stránku úplně vyloučit z indexace, použijte <meta name="robots" content="noindex">
.
2. Základní syntaxe robots.txt (jak se píše)
Robots.txt používá jednoduchá pravidla ve formátu:
User-agent: [název robota]
Disallow: [cesta, kterou zakazujete]
Allow: [cesta, kterou povolujete]
Sitemap: [odkaz na sitemap.xml]
Vysvětlení základních příkazů
Příkaz | Význam | Příklad |
---|---|---|
User-agent | Určuje, pro kterého robota platí pravidlo. * znamená všechny roboty. |
User-agent: * (všechny) User-agent: Googlebot (jen Google) |
Disallow | Zakazuje přístup k dané cestě. | Disallow: /admin/ (zakáže /admin/ ) |
Allow | Povoluje přístup k dané cestě (přepíše Disallow ). |
Allow: /public/ (povolí /public/ ) |
Sitemap | Ukazuje, kde je sitemap.xml (mapa webu). | Sitemap: https://vasweb.cz/sitemap.xml |
Praktické příklady robots.txt
🔹 Příklad 1: Povolit vše a uvést sitemap
User-agent: *
Disallow:
Sitemap: https://vasweb.cz/sitemap.xml
→ Všechny roboty mohou procházet celý web.
🔹 Příklad 2: Zablokovat administraci a přihlášení
User-agent: *
Disallow: /wp-admin/
Disallow: /login/
Disallow: /admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://vasweb.cz/sitemap.xml
→ Zakáže přístup do administrace, ale povolí admin-ajax.php
(důležité pro WordPress).
🔹 Příklad 3: Zablokovat konkrétního robota (např. škodlivé boty)
User-agent: BadBot
Disallow: /
User-agent: *
Disallow:
Sitemap: https://vasweb.cz/sitemap.xml
→ Zakáže přístup pro BadBot
, ostatní roboty mají volný přístup.
🔹 Příklad 4: Zablokovat všechny obrázky v určité složce
User-agent: Googlebot-Image
Disallow: /images/private/
→ Google nebude indexovat obrázky v /images/private/
.
3. Jak vygenerovat robots.txt? (Ručně i automaticky)
🔹 1. Ruční tvorba (pro pokročilé)
- Vytvořte soubor
robots.txt
v textovém editoru (Notepad, VS Code, Sublime Text). - Napište pravidla podle potřeby (viz příklady výše).
- Uložte jako čistý text (UTF-8) – Důležité, aby soubor neměl skryté formátování!
- Nahrajte do kořenového adresáře (např. přes FTP nebo správce souborů v hostingu).
⚠ Důležité:
- Soubor musí být přesně pojmenován
robots.txt
(malá písmena, bez mezer). - Musí být v kořenovém adresáři (např.
https://vasweb.cz/robots.txt
).
🔹 2. Automatická generace (pro začátečníky)
🔸 a) Pomocí CMS (WordPress, Joomla, Shopify atd.)
- WordPress:
- Použijte plugin Yoast SEO → Nástroje → Editor souborů → upravte
robots.txt
. - Nebo Rank Math → Dashboard → Edit robots.txt.
- Použijte plugin Yoast SEO → Nástroje → Editor souborů → upravte
- Shopify:
- Shopify automaticky generuje
robots.txt
, ale můžete ho upravit v/robots.txt.liquid
(pokročilí).
- Shopify automaticky generuje
- Joomla:
- V Rozšíření → Pluginy najděte "System - robots.txt" a upravte ho.
🔸 b) Pomocí online generátorů
Některé nástroje umožňují automaticky vygenerovat robots.txt na základě vašich požadavků:
⚠ Pozor: Automatické generátory nemusí znát specifické potřeby vašeho webu. Vždy zkontrolujte výsledek!
🔸 c) Pomocí hostingových nástrojů
Někteří hostinové (např. Webhosting CZ, WEDOS, Forpsi) umožňují editovat robots.txt přímo v administraci:
- cPanel → Souborový manažer → najděte
robots.txt
v kořenovém adresáři. - Plesk → Soubory → upravte
robots.txt
.
4. Jak otestovat robots.txt? (Krok za krokem)
Špatně nastavený robots.txt může způsobit, že váš web nebude indexován! Proto je důležité ho otestovat.
🔹 1. Základní kontrola (ručně)
- Otevřete
robots.txt
v prohlížeči:- Zadejte
https://vasweb.cz/robots.txt
. - Pokud se zobrazí 404 chyba, soubor neexistuje a musíte ho vytvořit.
- Zadejte
- Zkontrolujte syntaxi:
- Žádné diakritické znaky (á, é, í, ó, ú).
- Žádné mezery na začátku řádku.
- Každý příkaz musí být na novém řádku.
🔹 2. Testování pomocí Google Search Console
Google Search Console (GSC) je nejlepším nástrojem pro testování robots.txt
.
Postup:
- Přihlaste se do Google Search Console.
- Vyberte svůj web.
- Přejděte na "Nastavení" → "robots.txt Tester" (nebo vyhledejte "Test robots.txt").
- Vložte svůj
robots.txt
(nebo ho upravte přímo v nástroji). - Otestujte konkrétní URL:
- Zadejte cestu (např.
/admin/
) a zjistěte, zda je povolená (Allowed) nebo zakázaná (Blocked).
- Zadejte cestu (např.
- Odeslat změny (pokud jste upravovali přímo v GSC).
📌 Příklad testu v GSC: (Zdroj: Google Developers)
🔹 3. Testování pomocí Bing Webmaster Tools
Pokud chcete zkontrolovat, jak robots.txt
vidí Bing, použijte:
- Přihlaste se do Bing Webmaster Tools.
- Vyberte svůj web.
- Přejděte na "Konfigurace webu" → "robots.txt".
- Otestujte syntaxi a přístupnost.
🔹 4. Validace syntaxe (online nástroje)
Pokud chcete rychle zkontrolovat chyby, použijte:
- Google’s robots.txt Tester (nejspolehlivější)
- Bing’s robots.txt Analyzer
- TechnicalSEO robots.txt Tester
🔹 5. Kontrola sitemap.xml
Ujistěte se, že: ✅ Sitemap je uvedena v robots.txt
(např. Sitemap: https://vasweb.cz/sitemap.xml
). ✅ Sitemap je dostupná (otevřete ji v prohlížeči). ✅ Neobsahuje chyby (zkontrolujte v Google Search Console → Sitemapy).
5. Časté chyby v robots.txt a jak se jim vyhnout
Chyba | Důsledek | Jak opravit |
---|---|---|
Disallow: / (zakázat vše) |
Vyhledávače neprocházejí celý web → žádná indexace. | Použijte Disallow: (prázdné) nebo specifikujte konkrétní cesty. |
Chybějící Sitemap |
Vyhledávače mohou přehlédnout důležité stránky. | Přidejte Sitemap: https://vasweb.cz/sitemap.xml . |
Špatné cesty (např. Disallow: admin místo Disallow: /admin/ ) |
Pravidlo nefunguje, protože chybí / . |
Vždy používejte úplné cesty (např. /admin/ ). |
Použití noindex v robots.txt |
robots.txt nepodporuje noindex ! |
Použijte <meta name="robots" content="noindex"> v HTML. |
Zakázání CSS/JS souborů | Google neuvidí správně naformátovaný web → horší SEO. | Nepoužívejte Disallow na /css/ , /js/ . |
Zapomenutí na aktualizaci po změnách webu | Nové stránky nejsou crawlovány. | Pravidelně kontrolujte a aktualizujte robots.txt . |
6. Jak optimalizovat robots.txt pro SEO?
🔹 1. Šetřete crawl budget
- Crawl budget = počet stránek, které Google denně prohlédne.
- Zablokujte zbytečné stránky (např.
/search/
,/tag/
,/author/
). - Povolte důležité stránky (články, produkty, kategorie).
📌 Příklad pro e-shop:
User-agent: *
Disallow: /cart/
Disallow: /checkout/
Disallow: /search/
Disallow: /account/
Allow: /products/
Sitemap: https://vasweb.cz/sitemap.xml
🔹 2. Používejte Allow
pro výjimky
Pokud zakazujete celou složku, ale chcete povolit některé soubory:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
🔹 3. Oddělte pravidla pro různé roboty
Někteří roboty (např. Googlebot-Image) potřebují jiná pravidla:
User-agent: Googlebot-Image
Disallow: /images/private/
User-agent: *
Disallow: /admin/
🔹 4. Nepoužívejte robots.txt
pro noindex
Pokud chcete trvale odstranit stránku z indexu, použijte:
- Meta tag:
<meta name="robots" content="noindex">
- HTTP hlavičku:
X-Robots-Tag: noindex
7. Praktické příklady robots.txt pro různé weby
🔹 1. Robots.txt pro blog (WordPress)
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /readme.html
Disallow: /license.txt
Disallow: /xmlrpc.php
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/feed/
Disallow: /?s=
Disallow: /?attachment_id=
Disallow: /?p=
Sitemap: https://vasblog.cz/sitemap_index.xml
🔹 2. Robots.txt pro e-shop (Shopify, WooCommerce)
User-agent: *
Disallow: /cart/
Disallow: /checkout/
Disallow: /orders/
Disallow: /account/
Disallow: /search/
Disallow: /collections/*+*
Disallow: /collections/*?*
Disallow: /products/*+*
Disallow: /products/*?*
Allow: /products/
Allow: /collections/
Sitemap: https://vaseshop.cz/sitemap.xml
🔹 3. Robots.txt pro firemní web
User-agent: *
Disallow: /admin/
Disallow: /login/
Disallow: /private/
Disallow: /tmp/
Disallow: /backup/
Allow: /
Sitemap: https://vasfirma.cz/sitemap.xml
8. Často kladené dotazy (FAQ)
❓ Musím mít robots.txt?
✅ Není povinný, ale doporučuje se. Bez něj vyhledávače procházejí vše, což může být neefektivní (plýtvání crawl budgetem).
❓ Jak zjistit, zda robots.txt blokuje důležité stránky?
- Použijte Google Search Console → "Test robots.txt".
- Zkontrolujte Index Coverage Report (zda nejsou stránky vyloučené).
❓ Může robots.txt zlepšit SEO?
✅ Ano, ale nepřímo.
- Šetří crawl budget (vyhledávače se soustředí na důležité stránky).
- Zabraňuje indexaci duplicitního obsahu (např.
/tag/
,/category/
). - Zlepšuje rychlost crawlování (vyhledávače neplýtvají čas na zbytečné stránky).
❓ Co když omylem zablokuju důležité stránky?
- Opravte robots.txt.
- Požádejte o znovuprocházení v Google Search Console ("Inspekce URL" → "Požádat o indexaci").
❓ Jak zablokovat všechny roboty kromě Google?
User-agent: *
Disallow: /
User-agent: Googlebot
Allow: /
Jak správně pracovat se souborem robots.txt a jak do něj přidat sitemapu
Soubor robots.txt je pro vyhledávače jako je Google, Seznam nebo Bing klíčovým nástrojem pro komunikaci s webovou stránkou. Nejedná se o příkaz, který by striktně bránil vyhledávačům v procházení a indexování stránek, ale spíše o pokyn nebo doporučení. Díky němu můžete říct, které části vašeho webu by měly být procházeny a které by naopak procházeny být neměly. Proč? Abyste šetřili crawl budget, tedy "rozpočet" pro procházení, který Google vašemu webu přiděluje. Pokud má Google procházet zbytečné a irelevantní stránky, spotřebovává tím svůj crawl budget, který by jinak mohl využít na procházení důležitého a hodnotného obsahu.
V tomto článku se podíváme na to, jak vytvořit robots.txt, jak ho testovat a jak do něj správně vložit sitemapu.
Jak funguje robots.txt
Soubor robots.txt se nachází v kořenovém adresáři vašeho webu, což znamená, že ho najdete na adrese vasestranka.cz/robots.txt
. Obsahuje jednoduchá pravidla, která jsou určena pro webové roboty (neboli crawlers nebo bots).
Základní pravidla jsou:
-
User-agent: Určuje, pro kterého robota se pravidlo vztahuje.
User-agent: *
znamená, že se pravidlo vztahuje na všechny roboty. Pokud byste chtěli pravidlo jen pro Google, použili bysteUser-agent: Googlebot
. -
Disallow: Říká, co robot nemá procházet.
Disallow: /
znamená, že robot nesmí procházet nic na webu.Disallow: /admin/
znamená, že nesmí procházet složku admin. -
Allow: Přesný opak, tedy povoluje procházení. Toto se používá ve chvíli, kdy v jedné složce něco zakážete, ale v ní je ještě jiná složka, kterou chcete povolit.
Příklad robots.txt
Zde je jednoduchý příklad, který zakazuje procházení složky /wp-admin/
a zároveň odkazuje na sitemapu.
User-agent: *
Disallow: /wp-admin/
Sitemap: https://www.vasestranka.cz/sitemap_index.xml
1. Vytvoření souboru robots.txt
Pokud váš web ještě nemá soubor robots.txt, je jeho vytvoření velmi snadné. Stačí si otevřít textový editor, jako je Poznámkový blok (Notepad) nebo VS Code, a napsat pravidla.
Krok 1: Otevřete textový editor
Otevřete jakýkoliv jednoduchý textový editor.
Krok 2: Napište pravidla
Zvažte, které části vašeho webu nepotřebují být indexovány vyhledávači. Často se jedná o:
-
stránky pro přihlášení,
-
administrační sekce (např.
/wp-admin/
), -
výsledky interního vyhledávání (
/search/
), -
stránky s parametry, které nemají jedinečný obsah (
/kategorie?barva=modra
).
Nezapomeňte, že robots.txt
slouží jen jako doporučení, nikoli příkaz. Pokud chcete mít 100% jistotu, že se stránka neobjeví ve výsledcích vyhledávání, použijte meta tag noindex
v hlavičce stránky.
Krok 3: Uložte soubor
Uložte soubor pod názvem robots.txt s kódováním UTF-8 a bez přípony .txt
(některé editory ji automaticky přidávají, zkontrolujte to).
Krok 4: Nahrajte soubor na server
Nahrajte soubor robots.txt do kořenového adresáře vašeho webu. To můžete udělat pomocí FTP klienta (např. FileZilla) nebo přes souborového manažera ve vašem hostingu. Po nahrání by měl být soubor dostupný na adrese https://www.vasestranka.cz/robots.txt
.
2. Testování souboru robots.txt
Jakmile máte soubor nahraný, je důležité ho otestovat. Neexistuje nic horšího než omylem zakázat procházení celého webu.
Google Search Console
Nejlepší nástroj pro testování robots.txt je Google Search Console. Dříve zde existoval přímo nástroj "Tester souboru robots.txt", ale Google ho již integroval přímo do nástroje Procházení > Nástroje pro roboty.
-
Přihlaste se do Google Search Console: V levém menu klikněte na Nastavení a poté na Ověření vlastnictví.
-
Použijte nástroj Kontrola URL: Zadejte do horního vyhledávacího pole URL adresu, kterou chcete zkontrolovat.
-
Zobrazí se informace o indexování: Google vám řekne, zda je stránka indexována, zda je v robots.txt zakázána, a pokud ano, jakým pravidlem.
Pokud nemáte přístup do Google Search Console, můžete použít online robots.txt validátory. Stačí do Googlu zadat "robots.txt validator" a vybrat si jeden z nástrojů, které vám pomohou ověřit správnost syntaxe.
3. Vložení sitemapy do robots.txt
Sitemapa je soubor (obvykle ve formátu .xml
), který obsahuje seznam všech důležitých stránek na vašem webu. Slouží k tomu, aby vyhledávačům usnadnila nalezení a procházení obsahu. Vložení odkazu na sitemapu do souboru robots.txt
je dobrá praxe, protože to vyhledávačům dává jasný signál, kde sitemapu hledat.
Krok 1: Najděte URL vaší sitemapy
Většina moderních CMS (jako je WordPress s pluginem Yoast SEO nebo Rank Math) generuje sitemapu automaticky. Typické URL sitemapy jsou:
-
https://www.vasestranka.cz/sitemap.xml
-
https://www.vasestranka.cz/sitemap_index.xml
-
https://www.vasestranka.cz/sitemap.xml.gz
Krok 2: Přidejte řádek do robots.txt
Na konec vašeho robots.txt
souboru přidejte řádek Sitemap:
a za něj vložte kompletní URL sitemapy.
Správný formát:
Sitemap: https://www.vasestranka.cz/sitemap_index.xml
Chybný formát (nepoužívejte):
Sitemap: /sitemap_index.xml
Použijte celou URL i s protokolem https://
, aby bylo vyhledávačům naprosto jasné, kde sitemapu najít.
Krok 3: Nahrajte upravený robots.txt na server
Po úpravě uložte soubor a nahrajte ho zpět do kořenového adresáře vašeho webu.
9. Závěr: Jak správně pracovat s robots.txt?
- Vytvořte nebo upravte
robots.txt
(ručně nebo pomocí nástrojů). - Otestujte ho v Google Search Console a Bing Webmaster Tools.
- Zkontrolujte, zda neblokuje důležité stránky.
- Pravidelně aktualizujte (při změnách struktury webu).
- Nepoužívejte ho jako bezpečnostní opatření (pro citlivé údaje použijte
.htaccess
nebo heslo).
🚀 Pokud si nejste jisti, použijte tento základní template:
User-agent: *
Disallow: /admin/
Disallow: /login/
Disallow: /private/
Allow: /
Sitemap: https://vasweb.cz/sitemap.xml
10. Zdroje
- GOOGLE DEVELOPERS. Robots.txt specifications [online]. Google, 2023 [cit. 20.9.2025]. Dostupné z: https://developers.google.com/search/docs/advanced/crawling/robotstxt
- BING. Bing Webmaster Tools – robots.txt Tester [online]. Microsoft, 2023 [cit. 20.9.2025]. Dostupné z: https://www.bing.com/webmasters/tools/robots-txt
- MOZ. The Beginner’s Guide to robots.txt [online]. Moz, 2022 [cit. 20.9.2025]. Dostupné z: https://moz.com/learn/seo/robotstxt
- SEOPRESS. How to Create and Optimize Your robots.txt File [online]. SEOPress, 2023 [cit. 20.9.2025]. Dostupné z: https://www.seopress.org/robots-txt-seo/
Autor: Michal Binka Datum poslední úpravy: 20.9.2025 Model: Mistral Large (AI aplikace OCTODEEP)