GoogleWatchBlog

Webmaster Tools mit verbesserter robots.txt-Analyse

» Web-Version «


Ein falscher oder fehlerhafter Eintrag in der robots.txt-Datei kann nicht nur ärgerlich sein, sondern unter Umständen auch die ganze Webpräsenz gefährden. Durch einen kleinen falschen Eintrag, kann man alle Suchmaschinen vom parsen ausschließen und schon sind die Besucherströme dahin. Um solchen Dinge vorzubeugen, hat Google den robots.txt-Parser der Webmaster Tools stark ausgebaut und verbessert.


Die Analyse der robots.txt zeigt jetzt nicht mehr nur die eigentliche Einträge an, sondern gibt auch Vorschläge und Hinweise über eventuell nicht beabsichtigte Dinge. Ein „Disalow“ statt „Disallow“ wird von Google akzeptiert, von anderen Suchmaschinen aber eventuell nicht – daher sollte man diesen Fehler ausbessern. Auch der fehlende Slash vor dem Verzeichnisnamen sollte dann – auf Vorschlag – dringenst nachgebessert werden.

So langsam werden die Webmaster Tools wirklich unverzichtbar, vorallem bei der Einrichtung einer neuen Webpräsenz und deren anfänglicher Testphase. Ich persönlich brauche aber zumindest diesen Test nicht, da sich meine robots.txt lediglich auf den Aufenthaltsort der Sitemaps-Datei beschränkt 😉

» Ankündigung im Webmaster-Blog


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | Jetzt den GoogleWatchBlog-Newsletter abonnieren