Schlagwort: google-webmaster-tools
Heute in den Kurzmeldungen: Schaar stellt zwei Forderungen wegen Street View, Video-Sitemaps, Kritik am Google TV und Schmidt über Datenschutz bei Jugendlichen.
Der Bundesdatenschutzbeauftragte Peter Schaar hat sich in der Sache rund um Street View zu Wort gemeldet. Er fordert die Einrichtung eines Widerspruchsregisters und Profilbildungsverbot.
Seit einiger Zeit bietet Google auch Video-Sitemaps an. Im Webmaster Tools-Labs hat Google nun einen Abschnitt für einige experimentelle Funktionen um diese Sitemaps geschaffen. So zeigt man hier an, wenn die Thumbnails zu klein sind, der Zugriff durch die Robots.txt geblockt wird. Details
Google will im Herbst die ersten Geräte mit Google TV ausliefern. Mit diesen Geräten soll es auch möglich sein alte Episoden der Serie direkt am TV anzuschauen. Doch nun wehren sich die ersten US-Sender und wollen ihre Mediatheken nicht für Google öffnen. Sie fürchten, dass ihr Inhalte in der Flut untergehen. Weiteres bei heise.
Googles Chef Eric Schmidt rät jungen Menschen, die ihre Jugendsünden aus dem Internet haben wollen, sich einen neuen Namen zu zu legen und so mit einer weißen Weste ins Leben starten.
Der Bundesdatenschutzbeauftragte Peter Schaar hat sich in der Sache rund um Street View zu Wort gemeldet. Er fordert die Einrichtung eines Widerspruchsregisters und Profilbildungsverbot.
Es kann nicht angehen, dass Widerspruchsrechte vom Goodwill der jeweiligen Unternehmen abhängen. Nicht akzeptabel wäre es auch, dass die Betroffenen separat gegenüber allen Anbietern entsprechender Dienste der Veröffentlichung widersprechen müssen. Durch ein zentrales Widerspruchsregister könnte sichergestellt werden, dass ein einziger Widerspruch die Betroffenen gegen die Veröffentlichung ihrer personenbezogenen Daten im Internet schützt. Ein solches Widerspruchsregister könnte zum Beispiel bei der im Koalitionsvertrag vorgesehenen Stiftung Datenschutz eingerichtet werden,so Schaar in einer Mitteilung.
Seit einiger Zeit bietet Google auch Video-Sitemaps an. Im Webmaster Tools-Labs hat Google nun einen Abschnitt für einige experimentelle Funktionen um diese Sitemaps geschaffen. So zeigt man hier an, wenn die Thumbnails zu klein sind, der Zugriff durch die Robots.txt geblockt wird. Details
Google will im Herbst die ersten Geräte mit Google TV ausliefern. Mit diesen Geräten soll es auch möglich sein alte Episoden der Serie direkt am TV anzuschauen. Doch nun wehren sich die ersten US-Sender und wollen ihre Mediatheken nicht für Google öffnen. Sie fürchten, dass ihr Inhalte in der Flut untergehen. Weiteres bei heise.
Googles Chef Eric Schmidt rät jungen Menschen, die ihre Jugendsünden aus dem Internet haben wollen, sich einen neuen Namen zu zu legen und so mit einer weißen Weste ins Leben starten.
Heute in den Kurzmeldungen: WaveThis!, Google schlägt soft 404-Fehler vor und die Türkei sperrt Google.

Google hat das erstellen von Waves mit Inhalten aus Webseiten vereinfacht. Neben einem Bookmarklet für alle Browser, gibt es für Chrome eine Erweiterung und Webmaster können einen Share Icon zu ihrer Seite hinzufügen.

In den Webmaster Tools weist Google nun auch auf Seiten hin, die möglicherweise 404-Content enthalten. Zum soft 404 kommt es, wenn der Server mit 200 antwortet, obwohl der Inhalt eigentlich nicht existiert. Details
Die Türkei hat zahlreiche Google Services gesperrt. Bereits seit 2008 kann man nicht auf YouTube zugreifen, da dort Videos veröffentlicht wurden, die den Staatsgründer verunglimpft haben sollen. Laut International Business Times sind nun auch Google Docs, Feedburner, App Engine, Translate, Books und Analytics gesperrt.

Google hat das erstellen von Waves mit Inhalten aus Webseiten vereinfacht. Neben einem Bookmarklet für alle Browser, gibt es für Chrome eine Erweiterung und Webmaster können einen Share Icon zu ihrer Seite hinzufügen.

In den Webmaster Tools weist Google nun auch auf Seiten hin, die möglicherweise 404-Content enthalten. Zum soft 404 kommt es, wenn der Server mit 200 antwortet, obwohl der Inhalt eigentlich nicht existiert. Details
Die Türkei hat zahlreiche Google Services gesperrt. Bereits seit 2008 kann man nicht auf YouTube zugreifen, da dort Videos veröffentlicht wurden, die den Staatsgründer verunglimpft haben sollen. Laut International Business Times sind nun auch Google Docs, Feedburner, App Engine, Translate, Books und Analytics gesperrt.


Google hat in den Labs Bereich der Google Webmaster Tools Sidewiki integriert. Über diesen kann der Nutzer den Webmaster-Eintrag bearbeiten.
Der Webmaster-Eintrag in Sidewiki wird als Erstes angezeigt, wenn ein Nutzer die Sidewiki-Kommentare öffnet. Bisher konnte der Webmaster diese lediglich bearbeiten, wenn er die Google Toolbar oder die Sidewiki Erweiterung für Google Chrome installiert hat.


Die Google-Webmaster-Tools sollen demnächst prüfen, ob eine Aktualisierung der (wenn vorhandenen) Software oder dessen Plugins vorliegt.
Content Management Systeme sind immer begehrter bei Leuten, die wenig Zeit für eigene Ideen haben. Da ist ein Wordpress-Blog auf einem Freehoster schnell geklickt. Doch dass dabei manches Mal eventuell eine Version übersehen wird, oder schlicht der CMS-eigene Update-Hinweise ignoriert wird, kommt leider immer öfter vor.
Deshalb hat Google Webmaster Central angekündigt, solch ein Benachrichtigungs-System für die Webmaster-Tools anzubieten. Dieses soll dann auf einem Blick informieren, wenn es ein Update der Software (z. B. PHPBB, Wordpress, Joomla oder Drupal) gibt oder wenn ein Plugin eine neuere Version vorweißt. Damit soll die Sicherheit, zumindestens von Googles Seite, gewährleistet sein.
» Google Webmaster TOB

Google hat bei den Webmaster Tools nun ebenfalls einen eigenen Bereich geschaffen in dem Features getestet werden. Labs bietet bei den Webmaster Tools zwei Features an: Wie sieht der Google Bot meine Seite und Warnung vor Malware.
Über die Seitenleiste findet man Labs. Bei Abruf wie beim Googlebot kann man eine URL seiner Seite eintragen und Google ruft diese anschließend mit dem GoogleBot auf. Dieser Vorgang kann einige Minuten dauern. Anschließend wird der Quellcode angezeigt. Sollte Google bspw. wegen eines Eintrags in der robots.txt nicht auf eine Seite zugreifen dürfen, wird dies angeben.

Sollte Google auf der Webseite Malware erkennen, so bekommen Nutzer einen Hinweis in den Suchergebnissen angezeigt, dass diese Webseite möglicherweisen dem Computer schaden kann. In den Webmaster Tools bekommt nun auch der Webmaster selbst einen Überblick darüber welche Dateien Google als Malware eingestuft hat.







In der Oberfläche gibt es jetzt den neuen Menüpunkt "Settings" in dem sich auf einer Seite alle Einstellungsmöglichkeiten die die Webmaster Tools bieten befinden. Dort kann jetzt das Land, die Darstellung der URL, das einbinden der Fotos in den Google Image Labeler und die Crawling-Rate der Webseite eingestellt werden. In all den anderen Menüpunkten sind diese Einstellungen jetzt verschwunden. Obwohl die Änderungen mittlerweile seit 2 Tagen abgeschlossen sein sollten, funktioniert das ganze zumindest bei mir noch überhaupt nicht. Die Settings-Page ist bei mir bis auf die Landeseinstellung komplett leer, ich kann also keine Einstellungen mehr für den GWB vornehmen. Auch in den anderen Seiten sind die Einstellungen verschwunden. Daher kann ich leider keine eigenen Screenshots liefern und das Crawling-Update testen: Crawling-Einstellungen verbessert

Bisher hatte man 3 Einstellungsmöglichkeiten um die Crawling-Geschwindigkeit des GoogleBots anzupassen: Low (Wenige Besuche), Max (Viele Besuche) und das automatische anpassen - was immer noch die Standardauswahl ist und auf einer Reihe von Parametern basiert wie z.B. Aktualität der Seite und Ladegeschwindigkeit. Jetzt kann man die Crawling-Rate stufenlos über einen Regler einstellen. Außerdem kann die Anzahl der maximalen Server-Anfragen pro Sekunde und die Zeit die zwischen 2 Abfragen liegen muss eingestellt werden. Durch ausprobieren bekommt man im Laufe der Zeit sicherlich einen guten Wert hin mit dem die Seite im Index Aktuell bleibt und den Server dennoch nicht in die Knie zwingt. -- Bisher hat man es zwar noch nicht angekündigt, aber demnächst dürfte dann wohl auch das aufräumen der Statistiken und deren verbesserte Darstellung anstehen. Im Grunde bräuchte man ja auch nur die beiden Menüpunkte "Settings" und "Statistics". Bin gespannt was da noch so kommt. Eine Integration in Analytics wäre wohl am besten, obwohl das sicherlich einige Probleme mit sich bringt... » One place for changing your site's settings » More control of Googlebot's crawl rate [Blogoscoped-Forum]


In der Kategorie Diagnostics->Web Crawl->Not Found wird eine Liste aller URLs angezeigt die zwar verlinkt sind, aber nicht existieren. Zusätzlich dazu wird jetzt angezeigt von wievielen Webseiten auf diese Seite verlinkt worden ist und um welche es sich dabei handelt. Außerdem wird angezeigt, wann dieser Link das erste mal vom GoogleBot entdeckt worden ist. Leider ist der GoogleBot ziemlich nachtragend und scheint niemals etwas zu vergessen. Wie oben zu z.B. zu sehen hat slug.ch im November 2007 auf eine nicht existierende googlewatchblog-Seite verlinkt. Dieser Link ist natürlich längst in den unendlichen Weiten von slug verschwunden und auf jeden Fall nicht mehr über diese URL aufrufbar - dennoch zeigen die Webmaster Tools das weiterhin an. Ich denke es wäre besser solche Fehler nach einiger Zeit automatisch zu löschen. Außerdem wäre es vielleicht nicht schlecht wenn man diese Liste filtern könnte. Einmal nach internen und externen Links - denn nur gegen die internen kann man selbst etwas tun, alles andere liegt in der Hand anderer. Außerdem wäre eine Fehlererkennung wünschenswert. Oftmals kommt in URLs eine Reihe von HTML-Tags vor oder das "%20" (Leerzeichen) - also reine Tippfehler beim verlinken. Diese sollte man ausfiltern können und nur die "echten" Links anzeigen die nicht (mehr) existieren. » Webmaster Tools: Web Crawl [Google Blogoscoped]


Wird die 404-Seite aufgerufen, erscheint der Titel "Weitere Möglichkeiten", gefolgt von Vorschlägen für eine gültige, existierende Adresse auf dieser Domain und einem Suchfeld mit dem die Website komplett durchsucht werden kann. Suchvorschläge werden leider, zumindest bei meinen Tests, nur selten angezeigt - das ganze scheint nicht wirklich intelligent zu sein. In den meisten Fällen wird nur das Suchfeld angezeigt. Die Vorschläge basieren natürlich auf der eingegebenen URL und sollten eigentlich ähnliche URLs anzeigen - das funktioniert allerdings nur so lange wie kein Tippfehler enthalten ist. Die "Did you mean...?"-Funktion der Websuche ist in diesem Fall wesentlich intelligenter - könnte in diesem Tool gerne auch verwendet werden und würde sicher so manchen User ans Ziel führen. Das eingeblendete Suchfeld führt direkt zur Google-Suche mit Einschränkung auf die aufgerufene Domain. Das komplette Widget kann via CSS praktisch beliebig angepasst werden und kann sich so nahtlos in das Design jeder 404-Seite einfügen. Derzeit scheint es auch keine Geschwindigkeitsprobleme zu geben - die Seite lädt in Bruchteilen von Sekunden inklusive Vorschlägen - eine Verzögerung ist also nicht zu befürchten. Bleibt nur die Frage, ob die User jetzt auch schon auf Fehler-Seiten von Google begrüßt werden wollen ;-) Aber ich denke der Nutzen dieses Suchfelds und der Vorschläge hebt den Verfolgsungswahn wieder auf :-D Das Tool befindet sich noch der "Experimental"-Phase und dürfte daher in der Zukunft noch weiter ausgebaut werden. Interessant wäre natürlich wenn, zusätzlich zu den URL-Vorschlägen, gleich die komplette Website nach der Eingabe durchsucht wird und die Suchergebnisse ebenfalls angezeigt werden könnten. Vielleicht wäre auch ein Link zum Google-Cache nicht schlecht, da die Seite eventuell früher existiert hat. Wer es ausprobieren will, ich habe das Tool auf der GWB 404-Seite integriert: » Beispiel-Error » Enhance 404







