Was bedeutet Robots.txt?
Die robots.txt ist eine Textdatei im Hauptverzeichnis einer Webseite, die Suchmaschinen-Crawlern mitteilt, welche Seiten gecrawlt werden dürfen – und welche nicht.
Sie ist ein wichtiges Werkzeug der technischen Suchmaschinenoptimierung (SEO), um sensible Bereiche wie Admin-Bereiche, interne Suchseiten oder doppelte Inhalte vom Crawling auszuschließen.