Orkut Vor allem in Lateinamerika ist orkut sehr weit verbreitet. Da nicht alle orkut Nutzer eine schnelle DSL-Verbindung haben, gibt es nun eine Option mit der man eine Funktionen deaktivieren kann, die eine schnellere Verbindung benötigen. Diese Einstellung findet man hier. Wählt man die Option "show the low bandwidth version of orkut" aus, werden auf der Homepage keine Bilder mehr angezeigt: Gleiches gilt auch für andere Profile. Bei den Communities konnte ich keinen Unterschied feststellen. Im Scrapbook haben alle Nutzer dieses Bild: Die vor einigen Tagen eingeführte Suchfunktion konnte ich heute in meinem Account finden: [orkutplus]
Google Wieviele Rechenzentren Google rund um die Welt betreibt bzw. in wieviele Zentren man sich eingemietet hat gilt als eines der größten Firmengeheimnisse - dementsprechend sind auch nur sehr wenige genaue Standorte bekannt. Der gesunde Menschenverstand sagt und, dass Google mittlerweile die Fläche einer Kleinstadt nur für sich beanspruchen wird - aber genau weiß das niemand. Die Website Royal Pingdom hat jetzt eine Karte veröffentlicht in der zumindest ein Großteil der Rechenzentren eingetragen ist. Rechenzentren rund um die Welt
In der Karte sind 36 Standorte eingetragen in denen Rechenzentren von Google vermutet werden - die Liste ist keinesfalls vollständig bzw. könnte auch Fehleintragungen enthalten. 19 der 36 Rechenzentren sind quer durch die USA verteilt, 12 in Europa, 3 in Asien und jeweils 1 in Russland und Südamerika. In Planung befinden sich derzeit angeblich Rechenzentren in Taiwan, Malaysia, Litauen und ein weiteres in South Carolina. » Karte der Rechenzentren » Liste der Rechenzentren
YouTube In einem Posting im YouTube Blog werden die Updates am Donnerstag noch einmal zusammengefasst. -Besseres Sharing -Designänderungen -Erweiterte Suche Gleichzeitig wurde auch eine neue Version des YouTube Uploaders veröffentlicht. Diese ist speziell für den Mac entwickelt worden. Das Video fast alle Updates zusammen: » YouTube Blog: Site Update 4/9 » Download des Uploaders
Docs Sicherlich war es Andrew Chang sehr peinlich, dass er seine ToDo List veröffentlicht hat. Denn das Posting war ein privates, wie ich gestern schon vermutet hatte. Der Grund ist, Chang hat das Post to Blog Feature falsch einstellt, so dass das Posting nicht auf seinem Blog landete, sondern im Docs Blog sein Ziel fand. » Google Docs Blog: Posting to a blog is a bit too easy » Seine ToDo List (er hat sie bei Google Docs veröffentlicht)
AdWords Und wieder einmal müssen sich Googles Anwälte mit einer Klage beschäftigen: Das Christian Institute aus Großbritannien betreibt Kampagnen gegen die Abtreibung und wollte diese jetzt auch via AdWords im Internet weiter ausdehnen. Leider hat Google die Anzeige abgelehnt und ist nicht bereit dafür zu werben. Jetzt droht das Institute mit einer Klage. Das Institut wollte eine Anzeige mit folgendem Text schalten:
UK abortion law - news and views on abortion from the Christian Institute
Diese Anzeige sollte bei der Suche nach "Abtreibung" erscheinen und die Menschen eventuell doch davon überzeugen von der Abtreibung Abstand zu nehmen. Google lehnte die Anzeige ab, weil die aktuellen Richtlinien die Werbung für Webseiten mit "Abtreibungs- und Religionsbezogenen Inhalten" nicht erlauben. Allerdings ist das nur die offizielle Stellungnahme, in Wirklichkeit ist diese Zeile in den Richtlinien nicht enthalten. Außerdem wirbt Google für Abtreibungskliniken, lehnt es jedoch ab für Anti-Abtreibung zu werben. Das ganze ist natürlich leicht unverständlich und könnte einem zum Schluss kommen lassen dass Google _für_ die Abtreibung ist. Ich kann den Ärger des Instituts sehr gut nachvollziehen, auch wenn ich nicht unbedingt gleich mit der Holzhammer-Methode geklagt hätte. Aber immerhin hat sich der Anzeigentext dadurch jetzt doch noch weiter verbreitet und der Link zur Website ebenfalls ;-) Bin mal gespannt wie das ausgeht... In dem Falle ist Google im Unrecht. [heise, thx to: veith]
App Engine Da kann man nur sagen: Dumm gelaufen. Ausgerechnet die Google App Engine, das Angebot auf dem Google die Webservices dieser Welt hosten will, wurde durch eine einfache XSS-Lücke gehackt: Beim Aufruf der Website kam folgende JavaScript-Meldung: "This is remote text via xss.js located at ha.ckers.org" Mittlerweile dürfte die Lücke gestopft sein, aber der Imageschaden bleibt... » Screenshot bei Inquirer [thx to: veith]
App Engine Garett Rogers hat sich einige Gedanken um die neue Google Apps Engine gemacht und ist der Meinung, dass die Plattform zwar jede Menge Vorteile bietet - sei es finanziell oder infrastrukturell - , man sich aber dennoch nicht komplett gedankenlos in Googles Netzwerk hereinbegeben sollte. Die Apps Engine ist Googles Spinnennetz - wer einmal drin ist kommt nie wieder heraus... Hier nur die wichtigsten Dinge: Ihr seid komplett von Google abhängig Wenn Google down ist, ist auch eure Anwendung down. Das kann gerade bei beliebten Anwendungen sehr ärgerlich sein. Google gibt auch in diesem Fall keine Always-Online-Garantie. Eure Anwendung bleibt bei Google gefangen Wenn eure Anwendung sich plötzlich reger Beliebtheit erfreut, wollt ihr euch sicherlich unabhängig machen und auf einem eigenen Server umziehen. Das ist aber nicht möglich, da ihr an eure eigenen Daten überhaupt nicht herankommt. Der komplett Code und die Datenbank ist in Googles BigTable gespeichert und bietet keine Export-Funktion. Keine Preis-Angabe Noch ist die App Engine kostenlos nutzbar, aber Google hat schon durchblicken lassen dass man nach der Testphase bares Geld sehen möchte - hat aber nicht gesagt wieviel. Wahrscheinlich wird man unter dem amazon-Preis liegen und natürlich weit weit unter dem Preis einer eigenen Infrastruktur - aber dennoch macht man sich auch in diesem Punkt komplett von Googles Preisgestaltung abhängig. Datenschutz-Richtlinien Google bekommt all die Daten die eure User eingeben. Zwar hat Google gute Datenschutzregeln, aber ob die User damit einverstanden sind dass all ihre persönlichen Daten zu Google gelangen? Außerdem habt ihr quasi eure gesamtes Firmen-Kapital, sofern es sich nicht um ein Hobby-Projekt handelt, bei Google und seid davon abhängig wie die Firma damit umgehen wird... » Komplettes Posting beim ZDNet-Blog » Google App Engine
Notebook Das Google Notebook wurde wieder einmal überarbeitet und kann nun mit noch mehr Export-Funktionen und einer intuitiveren Toolbar aufwarten. Die Toolbar wurde von Google Docs "geklaut" und kann als neueste Funktion jetzt auch Text durchstreichen. Außerdem können Notebooks jetzt auch als RSS oder gar als Google Map exportiert werden. Zum Vergleich die alte Toolbar: Toolbar
Und hier die neue: Google Notebook neu
Wie man sieht ist aus der losen Anordnung von Buttons jetzt endlich eine zusammenhängende Toolbar geworden die noch einfacher zu bedienen ist. Da sich das ganze an Google Docs orientiert, und dieses wiederum an den Standards durch Offline-Software, muss niemand die Formatierungsfunktionen lange suchen sondern findet sie praktisch sofort. Alle Buttons sind dazu natürlich auch selbst erklärend. Außerdem können Notebooks jetzt in folgende Formate exportiert werden: - HTML - Google Docs (gibt es schon länger) - RSS - Google Reader - Google Maps RSS und Google Reader stellen im Grunde das gleiche Export-Format da, der einzige Unterschied ist dass bei zweiterem der Feed gleich in den Reader exportiert wird - was man natürlich mit 2 Klicks auch selbst hätte tun können. Außerdem hat Ionut von Google OS festgestellt, dass "RSS" nur als Bezeichnung verwendet wird - in Wirklichkeit handelt es sich um einen ATOM-Feed. Auf letztere Export-Möglichkeit, Google Maps, möchte ich noch einmal näher eingehen: Notebook als Map
Diese Funktion steht nur zur Verfügung, wenn Adressen innerhalb des Notebooks aufgeführt sind. Darauf hin öffnet sich dann eine Seite mit einer Google Map in der alle Adresse als Placemarks angezeigt werden und links neben der Karte auch noch einmal als Liste aufgeführt werden. Leider reicht die einfache Angabe einer Straße und Stadt nicht als Adressangabe und wird somit nicht unterstützt - es muss schon komplett mit PLZ sein. Diese angezeigte Karte wiederum kann wieder zu den Google Maps exportiert und als My Map abgespeichert werden. Die Verbindung zum Notebook geht dabei völlig verloren, die Placemarks beinhalten keinerlei Informationen über das Notebook oder über den Text der innerhalb der selben Notiz geschrieben worden ist. Wäre vielleicht ganz praktisch, damit man weiß um welches Placemark es sich überhaupt handelt ;-) » Ankündigung im Notebook-Blog [Google OS]
GoogleBot
Der GoogleBot scheint sich mit seiner derzeitigen Spiegelung des Internets nicht mehr zufrieden zu geben und möchte jetzt noch sehr viel mehr Seiten in seinen unendlichen Index aufnehmen: Ab sofort wird der Bot bei einigen ausgewählten Testseiten auch Formularfelder ausfüllen und diese Abfragen absenden. Das könnte für einige Webseiten ganz schön nach hinten los gehen... Der GoogleBot wird folgendermaßen vorgehen: Er sieht ein Formular-Feld in der Website, sucht sich 2-3 Wörter die innerhalb der Website vorkommen heraus, und gibt diese in das Formularfeld ein. Dann wird die Anfrage abgesendet und die zurückgegebene Seite auf ihre Relevanz hin überprüft bzw. getestet ob sie nur eine Fehlermeldung oder eine weitere Seite zurückgibt. Auf diese Weise dürfte sich Googles Index innerhalb von wenigen Tagen nahezu verhundertfachen. Allerdings nimmt der Bot auch Rücksicht: Es werden nur FORM-Abfragen gesendet, wenn die Daten per GET - also über die URL - übertragen werden. POST-Daten rührt der Bot (noch) nicht an. Außerdem wird der Bot natürlich keine unendlichen Anfragen stellen die den Server in die Knie zwingen könnten, die 2-3 herausgesuchten Wörter werden verwendet und dann verkrümelt sich der Bot wieder. Beim nächsten Besuch werden dann wahrscheinlich andere Wörter verwendet. Der PageRank der Webseiten die sich aus diesen Anfragen ergeben beeinflusst übrigens nicht das Ranking der kompletten Seite - wäre ja sonst auch unfair da eine Menge Duplicate Content entstehen würde. Hier im Blog würde der Bot z.B. das Suchformular ausfüllen und würde Artikel geliefert bekommen die eh schon im Index sind. Außerdem wurden Suchanfragen, sofern sie irgendwo verlinkt waren, eh schon seit langer Zeit im Index geführt. Das Problem für den Webmaster könnte jetzt sein, dass an dieser Stelle Seiten aufgelistet werden die nicht für jedermann zugänglich sein sollten. Da der Bot eine unendliche Geduld hat und sozusagen ständig bei jedem Besuch neue Anfragen ausprobiert, könnte es passieren dass ehemals geschützte Seiten plötzlich offen im Index herumschwirren. Ich denke es gibt nicht wenige Seiten die selbst den Login per GET ausführen... Was haltet ihr von der Funktion? Ich bin der Meinung dass ein neues HTML-Tag innerhalb von FORM her muss dass den Suchmaschinen das parsen erlaubt oder verbietet. In dem Falle dann gerne auch mit POST. » Ankündigung im Webmaster Central Blog [Google Blogoscoped]