Translate In den letzten Monaten hat sich bei Google Translate so einiges getan und der Weg hin zum kompletten Universal-Übersetzer (wenn auch mangelhaft) ist nicht mehr weit. Zeit also, sich auch einmal darum Gedanken zu machen ob es nicht auch Texte gibt die _nicht_ übersetzt werden sollten. Zu diesem Zweck hat Google jetzt 2 neue HTML-Klassen eingeführt und hofft wahrscheinlich wieder auf Standardisierung. Wenn eine Webseite von Google nicht übersetzt werden soll, muss einfach nur folgende Zeile im head-Bereich eingetragen werden:
< meta name="google" value="notranslate">
Soll nur ein einzelner Teil einer Webseite nicht übersetzt werden, genügt es eben diese Klasse auf ein einzelnes Elemente anzuwenden:
Email us at < span class="notranslate">sales at mydomain dot com< /span>
Gerade bei diesem Beispiel zeigt sich sehr gut, dass es tatsächlich Textteile gibt die man besser in der Original-Sprache beibehalten sollte ;-) Das Problem dabei ist nun, dass sich zwar Google daran hält, aber andere Übersetzungsdienste diese Klassen natürlich ignorieren. Ich könnte mir vorstellen dass Google die Klasse "notranslate" zur Standardisierung einreichen wird, aber damit scheitert. Besser wäre es gewesen diese Information via rel="notranslate" statt class="notranslate" zu übermitteln, denn durch die derzeitige Version schränkt man den Webmaster an der freien Namensgebung ein - und sicherlich gibt es auch Webseiten die eben diese Klasse verwenden und nun fehlinterpretiert werden. Ich könte mir vorstellen dass dennoch einige Übersetzungsdienste zumindest die Teil-Blockierung integrieren werden. Die Komplett-Blockierung dürfte allein schon an dem Teil name="google" scheitern - und eine weitere Liste in der alle Übersetzungsdienste aufgezählt werden brauchen wir nun wirklich nicht, davon haben wir in der robots.txt schon genügend. » Ankündigung im Webmaster Central Blog
Webmaster Tools Die Statistiken rund um die eigene Webseite innerhalb der Google Webmaster Tools sind mal wieder um eine Information reicher geworden: Schon seit langer Zeit wird angezeigt, welche Webseiten für diese Domain irgendwo im Web verlinkt sind, aber nicht existieren. Bisher eine nette Information, aber nicht wirklich hilfreich. Seit gestern wird nun auch angezeigt von wo dieser Link gekommen ist. Not Found
In der Kategorie Diagnostics->Web Crawl->Not Found wird eine Liste aller URLs angezeigt die zwar verlinkt sind, aber nicht existieren. Zusätzlich dazu wird jetzt angezeigt von wievielen Webseiten auf diese Seite verlinkt worden ist und um welche es sich dabei handelt. Außerdem wird angezeigt, wann dieser Link das erste mal vom GoogleBot entdeckt worden ist. Leider ist der GoogleBot ziemlich nachtragend und scheint niemals etwas zu vergessen. Wie oben zu z.B. zu sehen hat slug.ch im November 2007 auf eine nicht existierende googlewatchblog-Seite verlinkt. Dieser Link ist natürlich längst in den unendlichen Weiten von slug verschwunden und auf jeden Fall nicht mehr über diese URL aufrufbar - dennoch zeigen die Webmaster Tools das weiterhin an. Ich denke es wäre besser solche Fehler nach einiger Zeit automatisch zu löschen. Außerdem wäre es vielleicht nicht schlecht wenn man diese Liste filtern könnte. Einmal nach internen und externen Links - denn nur gegen die internen kann man selbst etwas tun, alles andere liegt in der Hand anderer. Außerdem wäre eine Fehlererkennung wünschenswert. Oftmals kommt in URLs eine Reihe von HTML-Tags vor oder das "%20" (Leerzeichen) - also reine Tippfehler beim verlinken. Diese sollte man ausfiltern können und nur die "echten" Links anzeigen die nicht (mehr) existieren. » Webmaster Tools: Web Crawl [Google Blogoscoped]