Gratis Robots.txt Tester

Test dine robots.txt regler med ét input. Indsæt et domæne eller en fuld URL og se straks om siden kan crawles.

Googlebot simulationCrawl-rule diagnosticsSEO + AI crawler friendly

Vi finder automatisk domæne og sti og tester med Googlebot.

Hvad er en Robots.txt fil?

En robots.txt fil fortæller søgemaskiner hvilke sider eller filer de må eller ikke må anmode om fra dit site. Den bruges primært til at undgå at overbelaste dit site med anmodninger.

Bedste Praksis for Robots.txt

  • Placer filen i rod-mappen (f.eks. eksempel.dk/robots.txt).
  • Inkluder et link til dit XML sitemap.
  • Brug ikke robots.txt til at skjule sider fra Googles søgeresultater. Brug noindex meta-tags i stedet.

Robots.txt og AI-crawlere

Mange AI-crawlere respekterer robots.txt-direktiver. Hold dine regler tydelige og undgå ikke-standard mønstre, så både søgemaskiner og LLM-crawlere forstår din politik korrekt.