Kyntheralivo
search Mobilní SEO

Crawl chyby nás srazily na kolena. Co jsme z toho odnesli

Crawl chyby nás srazily na kolena. Co jsme z toho odnesli

Byl to říjen 2024. Spustili jsme redesign webu a během tří týdnů ztratili přes 60 % organické návštěvnosti. Panika? Samozřejmě.

Problém byl hloupý, ale kritický. Při migraci jsme nechali v robots.txt zakázané crawlování celé sekce blogu. Googlebot ji přestal navštěvovat, stránky vypadly z indexu a my jsme se dva měsíce divili, proč čísla padají.

Co nás to naučilo?

  • SEO audit musí začínat crawl simulací – ne analýzou klíčových slov. Nástroj jako Screaming Frog nebo Google Search Console dokáže odhalit blokované URL dříve, než Googlebot zaregistruje problém.
  • Robots.txt a noindex tagy jsou první věc, kterou po každém nasazení kontrolujeme. Bez výjimky.
  • Coverage report v Search Console není volitelný doplněk – je to základní životní pojistka webu.

Po opravě a opětovném zaindexování jsme se dostali zpět na původní pozice za přibližně šest týdnů. Ale těch šest týdnů bolelo – v tržbách i v sebedůvěře.

Pokud jste prošli něčím podobným, vězte, že zotavení je možné. Ale příště začněte audit tam, kde Googlebot začíná – u přístupu k webu. Všechno ostatní přijde až potom.