Crawl chyby nás srazily na kolena. Co jsme z toho odnesli

Byl to říjen 2024. Spustili jsme redesign webu a během tří týdnů ztratili přes 60 % organické návštěvnosti. Panika? Samozřejmě.
Problém byl hloupý, ale kritický. Při migraci jsme nechali v robots.txt zakázané crawlování celé sekce blogu. Googlebot ji přestal navštěvovat, stránky vypadly z indexu a my jsme se dva měsíce divili, proč čísla padají.
Co nás to naučilo?
- SEO audit musí začínat crawl simulací – ne analýzou klíčových slov. Nástroj jako Screaming Frog nebo Google Search Console dokáže odhalit blokované URL dříve, než Googlebot zaregistruje problém.
- Robots.txt a noindex tagy jsou první věc, kterou po každém nasazení kontrolujeme. Bez výjimky.
- Coverage report v Search Console není volitelný doplněk – je to základní životní pojistka webu.
Po opravě a opětovném zaindexování jsme se dostali zpět na původní pozice za přibližně šest týdnů. Ale těch šest týdnů bolelo – v tržbách i v sebedůvěře.
Pokud jste prošli něčím podobným, vězte, že zotavení je možné. Ale příště začněte audit tam, kde Googlebot začíná – u přístupu k webu. Všechno ostatní přijde až potom.