Gratis Robots.txt Tester
Test dine robots.txt regler med ét input. Indsæt et domæne eller en fuld URL og se straks om siden kan crawles.
Googlebot simulationCrawl-rule diagnosticsSEO + AI crawler friendly
Hvad er en Robots.txt fil?
En robots.txt fil fortæller søgemaskiner hvilke sider eller filer de må eller ikke må anmode om fra dit site. Den bruges primært til at undgå at overbelaste dit site med anmodninger.
Bedste Praksis for Robots.txt
- Placer filen i rod-mappen (f.eks. eksempel.dk/robots.txt).
- Inkluder et link til dit XML sitemap.
- Brug ikke robots.txt til at skjule sider fra Googles søgeresultater. Brug noindex meta-tags i stedet.
Robots.txt og AI-crawlere
Mange AI-crawlere respekterer robots.txt-direktiver. Hold dine regler tydelige og undgå ikke-standard mønstre, så både søgemaskiner og LLM-crawlere forstår din politik korrekt.