Screaming Frog: 20 pokročilých filtrů pro SEO audit
Spustit procházení (crawl) ve Screaming Frog umí každý. Zadat URL, kliknout na Start, počkat na výsledky. To je základ.
Ale rozdíl mezi začátečníkem a SEO profesionálem není v tom, že profesionál crawluje víc webů. Je v tom, jak filtruje a analyzuje data.
Za roky v SEO jsem vytvořila desítky vlastních filtrů, které používám při každém auditu. V tomto článku vám ukážu 20 pokročilých filtrů, které mi pravidelně šetří hodiny práce a odhalují problémy, které by jinak zůstaly skryté.
Proč pokročilé filtry mění hru
Od základního crawlu k expertize
Základní procházení ve Screaming Frog vám ukáže:
- Kolik stránek web má
- Základní HTTP kódy
- Chybějící meta tagy
- Duplicitní titulky
To je užitečné. Ale představte si, že auditujete e-shop s 50 000 stránkami. Jak v tomto množství najdete:
- Stránky, které jsou 4+ kliknutí od homepage?
- Řetězce přesměrování delší než 2 kroky?
- Stránky s tenkým obsahem pod 300 slov?
- osiřelé stránky, které Google nezná?
Bez pokročilých filtrů budete hledat jehlu v kupce sena.
Případová studie: 3 hodiny vs. 20 minut - e-shop s 35 000 produkty
Klientka měla e-shop s 35 000 produktovými stránkami. Chtěla vědět, které stránky mají problém s tenkým obsahem a zároveň málo interních odkazů. Pomocí pokročilých filtrů jsem identifikovala problémové stránky a následně jsme klíčové kategorie podpořili PR články na webech s DA50+.
Výsledek? Seznam 847 stránek k okamžité akci a díky systematické opravě + podpoře kvalitními zpětnými odkazy téměř trojnásobný nárůst návštěvnosti.
Chcete podobné výsledky? Podívejte se na naše služby budování zpětných odkazů.
Filtry pro technické problémy (1-5)
Filtr 1: Řetězce přesměrování delší než 2 kroky
Proč je důležitý:
301 přesměrování jsou normální součást webu. Ale řetězce přesměrování (A -> B -> C -> D) zpomalují procházení, snižují rozpočet na procházení a ředí sílu odkazů.
Podle Johna Muellera z Google Googlebot následuje maximálně 5 přesměrování na jeden pokus o procházení. Doporučuje držet se pod 5 kroky. Já doporučuji maximum 2 kroky.
Jak nastavit:
- Po crawlu jděte do Reports -> Redirect Chains
- Export do Excelu
- Filtrujte sloupec "Number of Redirects" > 2
Alternativa přímo v SF:
- Configuration -> Spider -> Limits
- Zaškrtněte "Crawl Redirect Chains"
- Po crawlu: Filter -> Response Codes -> Redirect Chain
Co hledat:
- Řetězce 3+ přesměrování
- Smíšené řetězce (301 -> 302 -> 301)
- Cyklické přesměrování (A -> B -> A)
Příklad z praxe: E-shop po 3 migracích měl řetězce dlouhé až 7 kroků. Googlebot trávil značnou část rozpočtu na procházení následováním redirectů místo indexace produktů. Podle Google dokumentace každý redirect v řetězci spotřebuje část rozpočtu na procházení pro samostatnou URL.
Filtr 2: Smíšený obsah (HTTP na HTTPS webu)
Proč je důležitý: Máte HTTPS web? Skvělé. Ale pokud stránky načítají obrázky, skripty nebo styly přes HTTP, prohlížeče zobrazí varování a Google to považuje za bezpečnostní problém.
Jak nastavit:
- Configuration -> Spider -> Advanced
- Zaškrtněte "Check Links Outside of Start Folder"
- Po crawlu: Filter -> Security -> Mixed Content
Co hledat:
- HTTP obrázky na HTTPS stránkách
- Externí skripty načítané přes HTTP
- Fonty a CSS přes HTTP
Rychlá oprava:
Většinou stačí změnit http:// na https:// nebo použít protocol-relative URL (//example.com/image.jpg).
Filtr 3: Osiřelé stránky přes GSC integraci
Proč je důležitý: Osiřelé stránky jsou stránky bez interních odkazů. Screaming Frog je standardně nenajde, protože je prochází pouze přes odkazy.
Ale pokud propojíte Screaming Frog s Google Search Console, můžete porovnat:
- Co Google indexuje (GSC data)
- Co Screaming Frog prochází (interní odkazy)
Rozdíl = osiřelé stránky.
Jak nastavit:
- Configuration -> API Access -> Google Search Console
- Přihlaste se a vyberte property
- Po crawlu: Reports -> Osiřelé stránky (Orphan Pages)
Co hledat:
- Stránky s impressions v GSC, ale 0 inlinks ve SF
- Staré stránky, které nikdo nepropojil
- Landing pages z kampaní bez interních odkazů
Proč to řešit: Osiřelé stránky mají minimální šanci na dobré pozice. Interní prolinkování je základem distribuce PageRank.
Filtr 4: Pomalé stránky (> 2 sekundy)
Proč je důležitý: Rychlost načítání ovlivňuje Core Web Vitals, uživatelskou zkušenost i konverze. Podle Google by LCP mělo být do 2,5 sekundy. Stránky nad 2 sekundy ztrácejí návštěvníky - studie ukazují, že při prodloužení načítání z 1 na 3 sekundy se pravděpodobnost odchodu zvyšuje o 32 %.
Jak nastavit:
- Configuration -> Spider -> Advanced
- Zaškrtněte "Store HTML / Response Times"
- Po crawlu: Filter -> Response Time -> Over 2s
Alternativa s PageSpeed API:
- Configuration -> API Access -> PageSpeed Insights
- Zadejte API klíč
- Po crawlu máte LCP, INP, CLS pro každou stránku
Co hledat:
- Stránky s response time > 2 000 ms
- Stránky s LCP > 2,5 s (práh pro Core Web Vitals)
- Vzorce (např. všechny produktové stránky pomalé)
Typické příčiny:
- Velké neoptimalizované obrázky
- Blokující JavaScript
- Pomalé databázové dotazy
- Chybějící cache
Filtr 5: JavaScript blocking resources
Proč je důležitý:
JavaScript a CSS v <head> blokují vykreslení stránky. Googlebot může mít problém s indexací obsahu, který se načítá až po JS execution.
Jak nastavit:
- Configuration -> Spider -> Rendering
- Vyberte "JavaScript" rendering
- Po crawlu: Bulk Export -> Response Codes -> Blocked Resources
Alternativa:
- Po crawlu: Reports -> Crawl Path
- Filtrujte resources s typem "JS" a statusem "Blocked by robots.txt"
Co hledat:
- JS soubory blokované v robots.txt
- Kritické CSS blokované pro Googlebot
- Third-party skripty, které brání renderování
Důležité: Moderní weby často spoléhají na JavaScript. Pokud blokujete Googlebot přístup k JS souborům, může vidět prázdnou stránku.
Filtry pro on-page SEO (6-10)
Filtr 6: Titulky mimo optimální rozsah
Proč je důležitý:
Google zobrazuje přibližně 50-60 znaků title tagu. Kratší titulky nevyužívají potenciál, delší jsou ořezané.
Jak nastavit:
- Configuration -> Spider -> Preferences
- Nastavte "Title Length" limity (např. Min 30, Max 60)
- Po crawlu: Filter -> Page Titles -> Over X Characters / Under X Characters
Pokročilý filtr přes Custom Filter:
- Configuration -> Custom -> Filter
- Filter 1: Contains "Page Title 1" + Length > 60
- Filter 2: Contains "Page Title 1" + Length < 30
Co hledat:
- Titulky pod 30 znaků (často jen název firmy)
- Titulky nad 65 znaků (budou ořezané)
- Titulky s přesně stejnou délkou (šablona bez customizace)
Filtr 7: Duplicitní H1 vs Title
Proč je důležitý: Když H1 a Title jsou identické, plýtváte příležitostí. Title optimalizujte pro CTR v SERPu, H1 pro obsah stránky.
Jak nastavit:
- Po crawlu otevřete tab "Page Titles" a "H1"
- Bulk Export -> obojí do Excelu
- V Excelu: IF(Title = H1, "Duplicitní", "OK")
Přímý filtr v SF:
- Po crawlu: Reports -> Content -> Duplicate
- Vyberte "H1 matches Title"
Co hledat:
- 100% shoda Title a H1
- Stránky, kde chybí H1 (ale Title existuje)
- Stránky s více H1 tagy
Doporučení: Title: "Běžecké boty Nike | Sportisimo - doprava zdarma" H1: "Běžecké boty Nike pro každý terén"
Filtr 8: Chybějící canonical URL
Proč je důležitý: Canonical URL říká Googlu, která verze stránky je originál. Bez canonicalu riskujete problémy s duplicitním obsahem, zejména u e-shopů s filtry a parametry.
Jak nastavit:
- Po crawlu: Filter -> Canonicals -> Missing
- Nebo: Directives -> Canonical -> Missing
Pokročilý filtr:
- Custom Filter: "Canonical Link Element 1" + "is empty"
- Kombinujte s: "Indexability" = "Indexable"
Co hledat:
- Indexovatelné stránky bez canonicalu
- Stránky s parametry (?, &) bez canonicalu
- Paginované stránky bez canonicalu
Výjimky: Některé CMS (jako WordPress s Yoast) přidávají self-referencing canonical automaticky. To je správně.
Filtr 9: Tenký obsah pod 300 slov
Proč je důležitý: Google preferuje komplexní obsah. Stránky s méně než 300 slovy mají málokdy šanci na dobré pozice (pokud nejsou vysoce transakční).
Jak nastavit:
- Configuration -> Spider -> Extraction
- Zaškrtněte "Word Count"
- Po crawlu: Filter -> Content -> Low Word Count
Vlastní práh:
- Custom Filter: "Word Count" + Less Than + 300
- Kombinujte s: "Indexability" = "Indexable"
Co hledat:
- Produktové stránky s jen technickými specifikacemi
- Kategorie bez popisu
- Blog články s méně než 500 slovy
Pozor: Tenký obsah ≠ automaticky špatně. Kalkulačky, nástroje nebo kontaktní stránky mohou mít málo textu a být perfektní.
Filtr 10: Keyword v URL
Proč je důležitý: URL obsahující klíčové slovo mají mírnou SEO výhodu a lepší CTR. Tento filtr pomáhá najít stránky, kde URL neodpovídá obsahu.
Jak nastavit:
- Custom Extraction -> XPath nebo Regex
- Extrahujte H1 nebo hlavní keyword
- Custom Filter: URL does not contain [extracted keyword]
Jednodušší varianta:
- Export URL + H1 do Excelu
- Porovnejte, zda H1 keywords jsou v URL
- Označte nesoulad
Co hledat:
- URL s ID místo slug (
/product/12345vs/bezecke-boty-nike) - URL v angličtině na českém webu
- URL s parametry místo čistých cest
Filtry pro interní prolinkování (11-15)
Filtr 11: Stránky s méně než 3 příchozími odkazy
Proč je důležitý: Stránky s málo interními odkazy dostávají málo PageRank a Googlebot je hůře objevuje.
Jak nastavit:
- Po crawlu: Tab "Internal" nebo "Inlinks"
- Seřaďte podle "Unique Inlinks" vzestupně
- Filtrujte < 3
Custom Filter:
- Filter: "Unique Inlinks" + Less Than + 3
- Kombinujte s: "Indexability" = "Indexable"
Co hledat:
- Důležité stránky s 1-2 interními odkazy
- Nové články bez prolinkování
- Produkty mimo kategorie
Benchmark: Důležité stránky by měly mít minimálně 5-10 interních odkazů. Homepage typicky 50+.
Filtr 12: Hluboké stránky (> 4 kliknutí od homepage)
Proč je důležitý: Čím dále je stránka od homepage, tím méně PageRank dostává a tím déle trvá její indexace.
Jak nastavit:
- Po crawlu: Tab "Crawl Depth"
- Filtrujte > 4
Nebo:
- Reports -> Crawl Path Analysis
- Hledejte stránky s Depth > 4
Co hledat:
- Produkty 5+ kliknutí od homepage
- Staré blog články pohřbené v archivech
- Podkategorie bez přímých odkazů
Řešení:
- Přidejte odkazy z vyšších úrovní
- Vytvořte hub stránky
- Upravte navigaci
Filtr 13: Stránky s vysokou autoritou bez dostatečných interních odkazů VEN
Proč je důležitý: Stránky s nejvíce zpětnými odkazy (nebo návštěvností) by měly "rozdávat" autoritu dalším stránkám přes interní odkazy.
Jak nastavit:
- Propojte Screaming Frog s Ahrefs, Majestic nebo Moz
- Configuration -> API Access -> vyberte službu
- Po crawlu: Seřaďte podle DR/DA/TF sestupně
- Zkontrolujte "Unique Outlinks" u top stránek
Co hledat:
- Stránky s DR 50+ a jen 2-3 outlinky
- Homepage s minimem odkazů na důležité stránky
- Virální články bez interního prolinkování
Příklad: Blog článek, který získal 50 zpětných odkazů, ale neodkazuje na žádné produkty ani služby. Promrhaná příležitost.
Filtr 14: Rozbité interní odkazy
Proč je důležitý: Rozbité interní odkazy zhoršují UX, plýtvají rozpočtem na procházení a signalizují Googlu zanedbávaný web.
Jak nastavit:
- Po crawlu: Filter -> Response Codes -> Client Error (4xx)
- Přepněte na tab "Inlinks"
- Vidíte, které stránky odkazují na 404
Bulk oprava:
- Export všech 4xx stránek
- Export jejich inlinks
- Opravte odkazy nebo nastavte přesměrování
Co hledat:
- Stránky s 404 a více než 5 inlinks (priorita)
- Smazané produkty s aktivními odkazy
- Překlepy v URL
Filtr 15: Follow vs nofollow distribuce
Proč je důležitý: Interní nofollow odkazy nedistribuují PageRank. Někdy jsou správně (login, nákupní košík), někdy jsou chybou.
Jak nastavit:
- Po crawlu: Filter -> Directives -> Nofollow
- Nebo tab: "Inlinks" -> filtrujte "Nofollow" = True
Co hledat:
- Důležité stránky s nofollow interními odkazy
- Navigace s nofollow (typicky chyba)
- Nadměrné použití nofollow (PageRank sculpting je passé)
Správné použití nofollow:
- Login/registrace
- Nákupní košík
- Interní vyhledávání
- Affiliate odkazy
Filtry s vlastní extrakcí (16-20)
Filtr 16: Extrakce strukturovaných dat (schema markup)
Proč je důležitý: Strukturovaná data pomáhají Googlu pochopit obsah a mohou vést k rozšířeným úryvkům ve výsledcích vyhledávání. Ale mnoho webů je má implementované nekonzistentně.
Jak nastavit:
- Configuration -> Custom -> Extraction
- Přidejte XPath:
//script[@type='application/ld+json'] - Po crawlu vidíte, které stránky mají/nemají schema
Pokročilá extrakce:
- Regex pro konkrétní typ strukturovaných dat:
"@type"\s*:\s*"Product" - Extrahujte jednotlivé vlastnosti (price, availability)
Co hledat:
- Produkty bez Product strukturovaných dat
- Články bez Article strukturovaných dat
- FAQ sekce bez FAQPage strukturovaných dat
- Firmy bez LocalBusiness strukturovaných dat
Filtr 17: Extrakce cen produktů
Proč je důležitý: Pro e-shopy je kritické vědět, které produkty mají/nemají cenu, a zda je cena ve správném formátu pro schema.
Jak nastavit:
- Configuration -> Custom -> Extraction
- XPath pro cenu:
//span[@class='price'](upravte podle vašeho HTML) - Nebo Regex:
[0-9]+[\s,]?[0-9]*\s?Kč
Kombinace s filtrem:
- Custom Filter: "Extraction 1" + "is empty"
- Najdete produkty bez zobrazené ceny
Co hledat:
- Produkty s cenou "Na dotaz" (problém pro Google Shopping)
- Nekonzistentní formát cen
- Chybějící strukturovaná data pro cenu
Filtr 18: Extrakce publikačního data
Proč je důležitý: Google preferuje čerstvý obsah. Znalost publikačních dat vám umožní identifikovat zastaralý obsah.
Jak nastavit:
- Configuration -> Custom -> Extraction
- XPath:
//time[@datetime]/@datetime - Nebo:
//meta[@property='article:published_time']/@content
Analýza:
- Export extrahovaných dat
- V Excelu filtrujte články starší než 2 roky
- Prioritizujte aktualizaci
Co hledat:
- Články bez data (Google neví, jak staré jsou)
- Články starší 2+ let bez aktualizace
- Nekonzistentní formáty data
Filtr 19: Extrakce autora
Proč je důležitý: E-E-A-T (Experience, Expertise, Authority, Trust) je pro Google stále důležitější. Autorství je součástí signálů důvěryhodnosti.
Jak nastavit:
- Configuration -> Custom -> Extraction
- XPath:
//span[@class='author-name'](upravte) - Nebo:
//a[@rel='author']
Kombinace:
- Custom Filter: "Extraction 1" + "is empty"
- Najdete články bez uvedeného autora
Co hledat:
- YMYL obsah (zdraví, finance) bez autora
- Blog bez autorských stránek
- Nekonzistentní autorství
Filtr 20: Extrakce vlastních elementů (XPath)
Proč je důležitý: Každý web je jiný. XPath vám umožní extrahovat cokoliv z HTML struktury.
Užitečné XPath příklady:
Jak nastavit:
- Configuration -> Custom -> Extraction
- Vyberte XPath
- Zadejte expression
Tip: V Chrome DevTools (F12) klikněte pravým na element -> Copy -> Copy XPath. Získáte přesnou cestu.
Jak nastavit a uložit filtry
Uložení konfigurace
Screaming Frog umožňuje uložit celou konfiguraci procházení včetně:
- Spider nastavení
- Vlastní extrakce (custom extraction)
- Vlastní filtry (custom filters)
- API přístupy
Postup:
- File -> Configuration -> Save As
- Pojmenujte (např. "E-shop-audit-full.seospiderconfig")
- Pro další audit: File -> Configuration -> Load
Vytvoření šablony pro opakované audity
Moje workflow:
- Základní konfigurace pro rychlý audit (5 minut)
- Rozšířená konfigurace pro hloubkový audit (30 minut)
- E-commerce konfigurace (s cenami, skladem, schema)
- Blog konfigurace (s autory, daty, word count)
Export a sdílení filtrů
Konfigurační soubory můžete sdílet s týmem nebo mezi počítači. Formát .seospiderconfig obsahuje vše kromě API klíčů.
Můj workflow: Kombinace filtrů pro kompletní audit
Fáze 1: Rychlý přehled (15 minut)
- Procházení s výchozím nastavením
- Kontrola Response Codes (4xx, 5xx)
- Kontrola Indexability
- Kontrola základních On-Page (Title, H1, meta popis)
Fáze 2: Technická hloubka (30 minut)
- Analýza řetězců přesměrování
- Osiřelé stránky (s GSC integrací)
- Distribuce hloubky procházení
- Kontrola smíšeného obsahu
- Rozbité odkazy
Fáze 3: On-Page detaily (30 minut)
- Filtry délky titulků
- Analýza tenkého obsahu
- Kontrola duplicitního obsahu
- Audit canonical URL
- H1 vs Title porovnání
Fáze 4: Interní prolinkování (20 minut)
- Distribuce příchozích odkazů
- Identifikace hlubokých stránek
- Audit follow/nofollow
- Odchozí odkazy ze stránek s vysokou autoritou
Fáze 5: Vlastní extrakce (20 minut)
- Kontrola strukturovaných dat
- Ceny/dostupnost (e-shop)
- Data publikace (blog)
- Autorství (YMYL obsah)
Export a reporting
- Bulk Export problematických stránek
- Crawl Analysis report
- Prioritizace podle severity
- Akční plán s deadlines
Závěr a checklist
Screaming Frog je mocný nástroj, ale jeho síla je v pokročilém používání. Základní procházení zvládne kdokoliv. Expertní audit vyžaduje znalost filtrů a jejich kombinací.
Checklist pokročilých filtrů
Technické problémy:
- Řetězce přesměrování > 2 kroky
- Smíšený obsah (HTTP na HTTPS)
- Osiřelé stránky
- Doba odezvy > 2s
- Blokované JavaScript zdroje
On-Page SEO:
- Délka titulku (30-60 znaků)
- Duplicitní H1 vs Title
- Chybějící canonical URL
- Tenký obsah pod 300 slov
- Klíčové slovo v URL
Interní prolinkování:
- Stránky s méně než 3 příchozími odkazy
- Hluboké stránky (> 4 kliknutí)
- Odchozí odkazy ze stránek s vysokou autoritou
- Rozbité interní odkazy
- Distribuce follow/nofollow
Vlastní extrakce:
- Přítomnost strukturovaných dat
- Ceny produktů
- Publikační data
- Autorství
- Další vlastní elementy
Potřebujete pomoct s technickým auditem?
Pomáhám firmám odhalit a opravit technické problémy, které brzdí jejich web. Bez složitých smluv, jen výsledky.
Související články
- Screaming Frog SEO Spider: Kompletní návod pro technický audit
- Technický SEO audit: 8 oblastí, které brzdí váš web
- Interní prolinkování: Strategie pro vyšší návštěvnost
- Canonical URL: Jak sjednotit duplicity
- 301 přesměrování: Jak nastavit redirecty
Často kladené otázky (FAQ)
Fungují tyto filtry v bezplatné verzi Screaming Frog?
Většina základních filtrů funguje i v bezplatné verzi (Response Codes, Titles, H1, Canonicals). Ale pokročilé funkce jako vlastní extrakce, API integrace (GSC, PageSpeed, Ahrefs) a procházení nad 500 URL vyžadují placenou licenci za 199 GBP/rok. Pro profesionální audit je placená verze nezbytná.
Jak uložit filtry pro opakované použití?
Jděte do File -> Configuration -> Save As a uložte celou konfiguraci. Soubor .seospiderconfig obsahuje veškerá nastavení včetně vlastních filtrů a extrakcí. Pro další audit načtěte přes File -> Configuration -> Load. Můžete mít různé konfigurace pro různé typy webů (e-shop, blog, firemní web).
Jak kombinovat více filtrů současně?
Screaming Frog podporuje vlastní filtry, kde můžete nastavit až 10 podmínek s logickými operátory AND/OR. Jděte do Configuration -> Custom -> Filters a definujte podmínky. Například: "Word Count < 300" AND "Indexability = Indexable" AND "Unique Inlinks < 3" najde tenký obsah s malým počtem interních odkazů.
Mohu exportovat výsledky filtrování?
Ano. Po aplikování filtru klikněte na Export (tlačítko nahoře) nebo Bulk Export pro hromadný export. Podporované formáty: CSV, Excel, Google Sheets. Pro reporting doporučuji exportovat do Excelu a přidat vlastní prioritizaci a poznámky.
Jaké jsou limity vlastní extrakce?
Vlastní extrakce podporuje až 100 extraktorů na jedno procházení. Můžete používat XPath, CSSPath, regex nebo funkce. Extrahovaná data jsou limitována délkou (cca 2000 znaků na políčko). Pro komplexní extrakce (např. celá JSON-LD strukturovaná data) může být potřeba regex parsing. Největší limit je výkon: příliš mnoho extraktorů zpomalí procházení.
O autorce

Ing. Jana Hrabalová
SEO specialistka
SEO se věnuji od roku 2012. Pomáhám firmám získat více zákazníků z Google a přežít každý algoritmus update bez škrábnutí.
📚 Čtěte dále
Získejte SEO článek zdarma
Publikuji váš článek na kvalitním webu s vysokou autoritou
- Publikace na webu s DA 50+
- Dofollow odkaz na váš web
- Profesionální copywriting
Vyzkoušejte také mé bezplatné SEO nástroje: