Webmaster Tools zeigen Indexierung der Sitemaps in Grafiken

Verfasst von Pascal am 27. Januar 2012 |

Google hat die Übersicht der Sitemaps in den Webmaster Tools überarbeitet und stellt die Infos nun auch grafisch zur Verfügung. Nicht alle Seiten, die man mittels einer Sitemap bei Google einreicht, schaffen es auch in den Index. Daher gibt es zwischen “Submitted” und “Indexed” einen Unterschied.

Mehr

Videos an Google übermitteln: Google Video Sitemaps

Verfasst von Jens am 18. Dezember 2007 |

Webmaster Tools
Schon seit einiger Zeit zeigt Googles Videosuchmaschine Videos von großen Videohostern, aber auch von weiteren externen Seiten an. Es scheint Google aber schwer zu fallen Videos im Web aufzufinden, daher kann man seit einigen Tagen auch eine eigene Sitemap nur für Videos erstellen.

Um eine Video-Sitemap an Google zu übermitteln müsst ihr nur – genau wie bei den normalen Sitemaps – eine Sitemap mit diesen Spezifikationen erstellen und diese entweder in der robots.txt eintragen oder sie manuell an Google und die anderen Suchmaschinen übermitteln. Daraufhin sollten eure Videos innerhalb von kürzester Zeit auch bei Google Video zu finden sein.

Der Sitemap kann nicht nur die Video-URL, sondern auch der Name des Videos, eine Beschreibung und ein Thumbnail-Foto übermittelt werden. Es werden so gut wie alle gängigen Videoformate unterstützt: Von MPEG bis WMV über RM und natürlich die fast schon klassischen FLV-Flashvideos. Interessant wird sein wie Google die Videos abspielen wird, vorallem die bei denen bisher ein Browser-Plugin nötig war. Eventuell wird Google diese cachen und mit dem eigenen Player abspielen – wird den Player-Herstellern nicht gefallen, aber ist am wahrscheinlichsten.

» Video Sitemap Spezifikationen
» Ankündigung im Webmaster Central Blog

Mehr

ACHTUNG: Page Creator erstellt automatisch Sitemaps

Verfasst von Jens am 21. April 2007 | 10 Kommentare

Google Page Creator
AUWEIA! Da hat Google aber einen richtigen Bock geschossen: wer bisher dachte dass Dateien und Webseiten die bei den Google Pages hochgeladen oder erstellt worden sind nicht von der ganzen Welt gesehen werden können irrt sich ganz gewaltig. Jede Webseite hat bei Google eine eigene Sitemap in der alle hochgeladenen Dateien aufgelistet und so für jedermann zugänglich sind.

Um zu sehen welche Dateien auf einem Google Pages-Account liegen muss man einfach nur die URL

http://website.googlepages.com/sitemap.xml

aufrufen und schon bekommt man eine schöne Liste aller erstellten Webseiten und hochgeladenen Webseiten präsentiert – und das ohne irgendeine Prüfung der Zugangsberechtigung.

Ich habe bei den Google Pages auch schon private Webseiten erstellt die nicht unbedingt die ganze Welt sehen sollte und musste dann vorhin mit erschrecken feststellen dass die garnicht so unsichtbar sind wie ich dachte – natürlich hatte ich Dokumentnamen vergeben auf die niemand kommt – aber wenn die Liste so öffentlich präsentiert wird ist das natürlich kein großes Hindernis mehr. Also habe ich die betreffenden Seiten gelöscht bzw. unpublished.

Wer also private Dinge bei den Google Pages hostet sollte diese sofort löschen bzw. unpublishen. Durch den Eintrag in der Sitemap ist es nämlich auch nur eine Frage der Zeit bis die Dateien und Dokumente in den 4 großen Suchmaschinen die das Sitemap-Protokoll unterstützen auftauchen.

P.S. Ein RSS-Feed aller Webseiten bieten die Pages übrigens auch an:

http://website.googlepages.com/rss.xml

Also für mich hat sich das Thema Page Creator damit erledigt… zumindest zum hosten von Dateien. Es ist eine Frechheit dass Google so etwas nicht vorher ankündigt und die User davor warnt…

[Google OS]

Mehr

Sitemaps jetzt auch in der robots.txt

Verfasst von Jens am 12. April 2007 | 4 Kommentare

Google Sitemaps
Die Sitemaps, die mittlerweile von immer mehr Suchmaschinen unterstützt werden, helfen nicht nur den Suchmaschinen das Internet besser zu verstehen sondern sind auch aus SEO-technischer Sicht sehr praktisch. Damit die Suchmaschinen diese auch finden kann die Sitemap-URL jetzt direkt via robots.txt übergeben werden. Außerdem ist jetzt auch ask.com mit im Boot.

Bisher musste eine Sitemap auf Sitemaps.org oder über die jeweiligen Portale der Suchmaschinen eingestellt werden. Das ist natürlich nicht ganz so praktisch und musste dringend verbessert werden. Ab sofort muss die URL der Sitemap nur noch in die eigene robots.txt mit folgender Zeile eingetragen werden:

Sitemap: http://www.mysite.com/sitemap.xml

Laut dem Webmaster-Blog sollte man dennoch zusätzlich die Sitemap via den Portalen übermitteln, aber warum wird nicht genau angegeben. Unterstützt werden die Sitemaps derzeit von Google, Yahoo!, MSN und Ask und einigen weiteren kleinen Suchmaschinen die nicht näher genannt werden. Ich denke damit sind die Sitemaps jetzt endgültig ein unverzichtbares SEO-Tool und sollten von jedem Webmaster angelegt werden.

» Ankündigung im Webmaster-Blog

Mehr

Sitemaps jetzt auch für die Google News

Verfasst von Jens am 22. November 2006 |

Google News + Google Sitemaps
Weil es in der letzten Zeit einige Klagen gegen die Google News gegeben hatte, mussten sich die Googler etwas einfallen lassen. Die Administratoren der News-Seiten hatten bisher nur die Kontrolle darüber, ob ihre Seiten in den News-Index wandern oder nicht. Seit heute haben amerikanische Newsquellen auch die Möglichkeit ihre News mit einer Sitemap auszustatten und so genau die Kontrolle darüber zu behalten welche Artikel erscheinen und welche nicht.

Extra für News-Seiten hat Google eine neue Version des Sitemap-Protokolls erstellt, in dem erweiterte Informationen über den Artikel eingegeben werden können. So kann neben der eigentlich Artikel-URL auch eine Liste von Keywords zu jedem Artikel und ein Zeitstempel angegeben werden. Mit diesen Daten können die Google News den Artikel noch besser einordnen, anhand von Themen und Zeitlinien.

Außerdem können Artikel oder ganze Resorts mit dieser Sitemap von den Google News ausgeschlossen werden, damit sich kein Webmaster mehr darüber ärgern oder gar Google verklagen kann, wenn ein Artikel fälschlicherweise hier erscheint. Der Link zur Integration dieser Sitemaps ist bisher allerdings nur für die Webmaster sichtbar, deren Seiten schon bei den News integriert sind.

Ein kluger Schachzug, so hält man sich Klagen vom Leib, und lernt die Seiten der News-Provider gleich noch besser kennen. Außerdem könnte dies der Anfang eines neuen allumfassenden News-Dienstes werden. Später könnte das Angebot für alle Webmaster geöffnet werden, und so neben den eigentlichen News auch die Meinung der User im Web und ihren Blogs angezeigt werden.

» Ankündigung im Webmaster Central Blog
» Neue Sitemaps-Definition

Mehr

Google, Yahoo & Microsoft machen Sitemaps zum Standard

Verfasst von Jens am 16. November 2006 | 6 Kommentare

Google Sitemaps
Googles Konkurrenten Yahoo! und Microsoft haben den Vorteil der Sitemaps erkannt und nutzen diese Technik jetzt ebenfalls für ihre Suchmaschinen. Dazu haben die 3 Unternehmen die Website sitemaps.org ins Leben gerufen die alle allgemeinen Informationen über die Inhaltsdatei sammelt. Damit wird erstmals ein Google-Service zum Quasi-Webstandard.

Die zu Google übermittelten Sitemaps werden auch weiterhin nur bei Google gelistet. Wer seine Inhaltsdatei auch bei Yahoo! und Microsoft sehen möchte, muss diese Extra zu ihnen übermitteln. Der Standard wird von den 3en allgemein gehalten, aber was jede Suchmaschine selbst daraus macht bleibt ihnen selbst überlassen. Damit dürfte der Kampf um die Sitemaps eröffnet sein.

Da alle 3 großen in diesem Markt diesen Standard nun unterstützen werden sich sicherlich auch sehr schnell noch weitere Suchmaschinen anschließen und eine Sitemap demnächst zum unersetzlichen Bestandteil einer Homepage machen. Außerdem wird es dann wohl bald, analog zu den bei-allen-Suchmaschinen-eintragen-Diensten, Angebote geben die die eigene Sitemap an alle Suchmaschinen übermitteln.

Warum Google das Protokoll jetzt geöffnet hat kann ich nicht nachvollziehen. Bisher war dies ein unschlagbarer Vorteil gegenüber den anderen Suchmaschinen, aber dieser ist ja nun nicht mehr vorhanden und die anderen bereichern sich an der von Google teuer entwickelten Technik… Hat Google wirklich so gute Absichten das Web zu ordnen, dass sie dabei sogar eigene Einbußen in Kauf nehmen? Kaum zu glauben…

» Sitemaps.org
» Ankündigung im Webmaster-Blog

Mehr

Neue Funktionen in Googles Webmasterzentrale

Verfasst von Jens am 20. Oktober 2006 | 1 Kommentar

Google Webmaster Tools
Googles Webmasterzentrale hat wieder einige interessante Updates spendiert bekommen: Dabei handelt es sich sowohl um erweiterte Auswertungen und Statistiken als auch einige Einstellungsmöglichkeiten für die eigene Domain. So kann jetzt z.B. eingestellt werden wie oft der GoogleBot auf der eigenen Webseite vorbeischauen soll – allerdings alles auf eigene Gefahr.

GoogleBot-Aktivitäten
In 3 Diagrammen kann der Webmaster jetzt sofort sehen wieviele Webseiten der Bot jeden Tag besucht, wieviele Datenmengen er dabei herunterlädt und wie lange er dafür ungefährt braucht. Wenn diese Werte fallend statt steigend sind sollte man sich Sorgen machen, zumindest als Content-Lieferer – denn dann sind irgendwelche Webseiten nicht mehr richtig verlinkt.

Unglaubwürdige Werte
Bei mir tauchen hier allerdings einige sehr merkwürdige Werte auf die ich nicht so ganz glauben kann. Laut Statistik crawlt Google jeden Tag 4241 Seiten in diesem Blog – okay, das ist soweit möglich – aber nicht jeden Tag. Und jetzt der schlimmste Wert: Google lädt jeden Tag 188,93 MB an Daten von diesem Blog herunter. Zur Spitzenzeit waren es sogar 414.727 MB. Soll ich das wirklich glauben? Das würde die Traffic-Grenzen des Servers nämlich brechen… Nur bei der Antwortzeit muss ich Google leider recht geben, knapp 1 Sekunde pro Seite – es steht wohl so langsam der Wechsel auf einen leistungsfähigeren Server an…

Crawl-Geschwindigkeit einstellen
Jeder Webmaster hat jetzt die Wahl zwischen schnellem, normalem und langsamen Crawling der eigenen Webseite. Wer einen starken Server besitzt sollte hier natürlich auf Faster stellen, denn so kann man schon innerhalb von 24 im Google-Index auftauchen, was bei aktuellen Themen sehr wichtig ist – langsamere Server oder Seiten die nur selten upgedatet werden können den Bot auch auf langsam einstellen. Alle anderen sollten bei normal bleiben.

Standardmäßig stellt Google einen Wert ein der dem Server angemessen ist. Anhand der Antwortzeiten stellt der Bot fest ob der Server vom GoogleBot überlastet ist oder nicht und verändert die Geschwindigkeit von sich aus. Ich wusste garnicht dass der Bot so intelligent ist, aber es ist nett von Google dass sie nicht die gesamte Bandbreite eines Servers fressen wollen ;-)

Erweiterte Bildersuche
Mit einer kleinen CheckBox kann jeder Webmaster einwilligen seine Fotos durch Programme wie den Google Image Labeler weiter sortieren und auswerten zu lassen. Was passiert wenn die Box deaktiviert ist (was sie standardmäßig auch ist) weiß ich nicht, ich denke in der Bildersuche tauchen die Fotos trotzdem alle auf – ansonsten könnte diese demnächst sehr leer werden.

Anzahl der Sitemap-URLs
In der Sitemap-Übersicht wird nun auch angezeigt wieviele URLs sich in der eigenen Sitemap befinden. Leider kann keine Liste mit den eingetragenen URLs angesehen werden, denn das wäre noch sehr viel interessanter. Bei mir sind zur Zeit knapp 1800 URLs eingetragen, das deckt sich sehr grob mit der Anzahl der Artikel in diesem Blog. Die Anzahl der Artikel liegt derzeit bei knapp 2.000.

Fazit
Wieder einmal sehr interessante Neuerungen, vorallem die GoogleBot-Statistiken und die dazugehörige Geschwindigkeitseinstellung. Ganz unbewusst werden Webmaster so langsam gezwungen sich bei Sitemaps zu registrieren und eine eigene Sitemap anzulegen – denn ohne diese können die ganzen Einstellungen, die sicherlich irgendwann überlebenswichtig für eine Webseite sind, nicht vorgenommen werden. Außerdem wird der Trend, nur noch für Google zu optimieren, noch weiter ausgebaut – kluger Schachzug, aber schlecht für die Konkurrenz – die müssen nun erstmal nachziehen.

» Ankündigung im Webmaster Tools Blog

Mehr

Sitemaps erhöht Update-Frequenz für Statistiken

Verfasst von Jens am 30. September 2006 | 1 Kommentar

Sitemaps
Die Google Sitemaps können dem Webmaster, der seine Website dort registriert hat, zeigen bei welchen Suchbegriffen seine Webseite auftaucht, wie oft sie angezeigt wurde, und wie oft sie bei welchem Keyword geklickt wurde. Ganz interessante Statistiken, vor allem für SEOler, aber bisher wurden die Daten nur selten erneuert. Ab sofort gibt es jeden Montag frische Statistiken.

Vorher wurden die Daten alle 3 Wochen upgedatet und neu in die Sitemaps-Accounts der User hochgeladen, dies ist natürlich ein klein wenig zu langsam und die Daten nach 3 Wochen vielleicht nicht mehr ganz so aussagekräftig. Aus diesem Grund wird jetzt jeden Montag ein Update mit den neuesten Daten durchgeführt.

Google rät, die Daten 1x pro Woche herunterzuladen um eine komplette Statistik führen zu können. Ich könnte zwar wetten dass Google diese Daten ebenfalls aufbewahrt und uns demnächst eine solche Statistik anbieten wird, aber noch muss der User dieses eben selbst erstellen.

In dem Ankündigungs-Artikel wird auch noch einmal genauestens erklärt wie Google diese Daten berechnet und auf welcher Grundlage diese Zahlen liegen – recht interessant, lest es euch ruhig mal durch.

P.S. Hat einer von euch gewusst das die Sitemaps-Daten nicht live sind? Ich dachte immer die sind top-aktuell…

» Ankündigung im Webmaster Central Blog

Mehr

Validator für Sitemaps-Datei

Verfasst von Jens am 21. September 2006 |

Google Sitemaps
Der beliebte Validator Validome.org parst nun auch einige weitere XML-Formate wie Atom und RSS. Außerdem ist jetzt auch das parsen und überprüfen einer Google Sitemap im Programm. So etwas war meiner Meinung nach auch dringend notwendig, schließlich ist das nicht gerade Googles Spezialgebiet.

Google selbst zeigt seinem Nutzer nur an ob die Sitemap in Ordnung ist oder ein Fehler aufgetreten ist, aber an welcher Stelle und welcher Fehler blieb immer ein Geheimnis. Der Validator setzt jetzt an dieser Stelle an und hilft dabei schnell und problemlos eine Sitemap zu erstellen.

Schön wäre es jetzt wenn es auch noch weitere Validatoren für die Google-Formate geben würde. Vor allem ein Validator für Google Co-op würde ich dringend gebrauchen, denn dieses Format bereitet mir heute noch Probleme, und ich komme nicht über einfache Listen hinaus…

» Sitemaps Validator

Siehe auch
» Automatische Sitemaps: PHP Sitemap Generator

[golem & Dwenge]

Mehr

Automatische Sitemaps: PHP Sitemap Generator

Verfasst von Jens am 25. August 2006 | 5 Kommentare

Google Sitemaps
Mit dem PHP-Sitemaps-Generator gibt es jetzt erstmals ein Tool das eine Sitemap komplett ohne das zutun des Benutzers in wenigen Sekunden erstellt. Dabei sind keinerlei Angaben und nur 2 Klicks notwendig und schon kennt Google die komplette Struktur des eigenen Servers und kann ihn so noch besser crawlen.

Das Archiv besteht aus nur wenigen Dateien und ein paar KB die man sich einfach auf den Server lädt und dann ausführt. Beim ersten Start bietet das Programm noch jede Menge Einstellungsmöglichkeiten die aber, wenn man keine Ahnung davon hat, bedenkenlos übernommen werden können. Beim nächsten Klick wird dann eine Struktur des gesamten Servers erstellt und auf einer Ergebnis-Webseite ausgegeben.

Mit einem weiteren Klick auf “Create File” wird die Sitemap sowohl auf dem Server als TXT und XML erstellt und dann gleich noch automatisch an Google gesendet. Einfacher geht es nun wirklich nicht mehr. Das einzige Problem ist die Dauer der Erstellung der Sitemap-Datei. Bei mir hat sich der Browser 3x aufgehangen und erst beim 4. Versuch – und nur mit dem IE – hat es dann endlich funktioniert…


Die Sitemaps wirken zwar sehr unscheinbar und der Vorteil scheint nicht auf den ersten Blick erkennbar – aber sie bringen wirklich etwas. Seit dem Start weg nutze ich die Sitemaps, und auch der GWB teilt Google jeden einzelnen neuen Artikel mit. Und das Ergebnis, die Artikel sind teilweise schon nach 24 Stunden im Google-Index zu finden, schneller gehts nun wirklich nicht ;-)

» Google Sitemaps Generator

[Joes Newz Blog]

Mehr

Google Sitemaps verbessert einige Funktionen

Verfasst von Jens am 22. Juni 2006 |

Google Si temaps
Die Google Sitemaps wurden mal wieder einem kleinen Update unterzogen, welches aber keine wirklichen Neuerungen sondern nur Verbesserungen der vorhandenen Funktionen und eine neu eingeführte Feedback-Funktion gibt – Sozusagen also ein Update der zuletzt eingeführten Funktionen.

Crawling-Fehler
Bisher haben die Sitemaps nur 10 Crawling-Fehler und die dazu gehörende URL in einer Liste angezeigt, das ist bei großen Seiten (wie dem Blog hier z.B., mit über 2000 Seiten) nicht wirklich hilfreich. Daher werden ab sofort ALLE Fehler angezeigt die der GoogleBot entdeckt.

Um dies zu bewerkstelligen muss vorher aus einer Liste die Art von Fehler ausgewählt werden, und erst dann werden die betreffenden Webseiten angezeigt. Praktischerweise kann diese Datei auch gleich als CVS-Datei heruntergeladen werden – dann kann sie bspw. in Google Spreadsheets importiert, geöffnet und genauer studiert werden.

Wer sucht von wo aus wonach?
Wohl inspiriert von Google Trends, können die Sitemaps nun nicht mehr nur anzeigen wonach gesucht wurde und wie oft die Webseite über das jeweilige Suchergebnis aufgerufen wurde, sondern es kann auch nach Herkunftsort und Suchtyp gestaffelt werden. Eine längst überfällige Erweiterung, darauf habe ich selbst schon gewartet.

Weiteres
- Außerdem wurde die Anzahl der Anzeige der am häufigsten auf der Website vorkommenden Wörter erhöht. Von 20 auf 75. In diesem Blog ist es übrigens das Wort “Google” :-D. Außerdem wurden die Worte “http” und “www” herausgefiltert – ebenfalls längst überfällig.

- Ab sofort können pro Account bis zu 500 Sitemaps hochgeladen werden. Vorher lag das Limit bei 200 Seiten.

- Der robots.txt-Test zeigt nun auch an, ob eventuell der Google-Ad-Bot ausgesperrt wird. In diesem Fall kann keine AdSense-Werbung auf dieser Webseite angezeigt werden.

Feedback
Außerdem prangen neben jeder einzelnen Funktion jetzt 3 Smileys, mit denen die Nützlichkeit dieser Funktion bewertet werden kann. Die Sitemaper sind sich wohl noch nicht so recht im klaren darüber was die Sitemaps nun eigentlich sind und was es bieten soll. Daher ist anzunehmen das unbeliebte Dinge bald herausfliegen oder grundlegend geändert werden.

Siehe auch
» Neue Statistiken für Google Sitemaps

» Ankündigung im Sitemaps-Blog

Mehr

Pagerank und robots.txt bei Sitemaps

Verfasst von Jens am 08. Februar 2006 | 2 Kommentare

Google Sitemaps
Google erweitert seine Sitemaps mal wieder um 2 kleinere, aber nicht unwichtige, Statistik-Funktionen: Es zeigt nun die Seite mit dem höchsten Pagerank an und gibt eine nähere Erklärung der robots.txt aus.

Pagerank
Es wird jeweils die Seite mit dem höchsten Pagerank, die sich auf dem Server befindet, angezeigt. Das ganze wird jeweils für die letzten 3 Monate analysiert. Bei mir auf dem Server ist es natürlich in allen 3 Monaten dieser Blog hier, womit ich also leider nicht einschätzen kann ob diese Werte korrekt sind.

robots.txt
Auf dieser Seite wird der Inhalt der robots.txt angezeigt und etwas näher erklärt. Es wird genau dargestellt welche Seiten der Googlebot besuchen darf und welche nicht. Dabei wird interessanterweise auch der neue Googlebot-Mobile angezeigt.

Siehe auch
» Neue Statistiken für Google Sitemaps

Mehr

Neue Statistiken für Google Sitemaps

Verfasst von Jens am 17. November 2005 |

Google Sitemaps
Google scheint so langsam unter die Statistiker und Analytiker zu gehen. Nachdem vor wenigen Tagen Google Analytics veröffentlicht wurde, hat nun auch Google Sitemaps ein großes Update erfahren, mit dem sich der interessierte Webmaster so einiges anzeigen lassen kann.

Ganz neu ist die Statistik-Seite nicht, doch bisher gab es nicht mehr als nur ein Hinweis welche Dateien auf dem Server nicht verfügbar waren. Darauf beschränkte sich die Auskunft innerhalb der letzten Monate, ein Update war nur eine Frage der Zeit gewesen. Ich persönlich habe schon länger darauf gewartet – man kann ja schließlich nie genug Statistiken über die eigene Homepage haben.

Was interessiert die Besucher?
Am interesantesten dürfte die “Query”-Statistik sein, diese zeigt als erstes an bei welchen Suchvorgängen die eigene Website gelistet wird. Als zweite Information – und für Webmaster wohl wesentlich interessanter – wird auch angezeigt bei welcher Suchanfrage die User tatsächlich auf die eigene Seite gelangt sind. Dies bieten zwar viele Counter-Anbieter schon von Hause aus an, doch die Google-eigene Statistik dürfte wohl am zuverlässigsten sein.

Erreichbarkeit des Servers
Als zweites gibt es die “Crawl”-Statistiken. Diese zeigt an welche Rückmeldungen Google vom Webserver bekommen hat. Es ist unter anderem einsehbar wieviel Prozent der Seiten nicht erreichbar war, wieviele Seiten durch die robots.txt nicht durchsucht werden konnten, und welche Seiten einfach zu große Ladezeiten hatten.
Neben dieser Statistik wird auch noch der Pagerank der einzelnen Seiten angezeigt, ebenfalls in Prozent. Dabei ordnet Google die Pageranks in “High”, “Medium” und “Low” ein, oder in der Kategorie “Noch kein Pagerank ermittelt”

Inhalts-Analyse
Auf der 3. Seite “Page analysis” bekommt der Webmaster eine Statistik darüber in welchem Format seine Webseiten vorliegen. Dabei geht Google einmal auf den MIME-Typ ein, und als zweites mit welchem Zeichensatz die einzelnen Webseiten codiert worden sind.

Was weiß Google
Auf der letzten Seite kann sich der Webmaster anzeigen lassen welche Informationen Google gespeichert hat. Unter anderem welche Seiten auf die eigene verlinken, wie die Seite im Google-Cache aussieht, und welche Seiten Google als “ähnlich” zur eigenen einstuft.

Dies sind zwar alles keine Informationen die ein Webmaster nicht auch ohne Google bekommen könnte, jedoch gehören sie für mich einfach dazu, und machen den Sitemap-Service sicherlich für viele um einiges interessanter. Vorallem für die Webmaster die sich noch in der “Anfänger-Phase” befinden und nicht wissen wo sie diese Informationen sonst herbekommen sollten.

» Google Sitemaps

Mehr
Seite 1 von 212