Google Vor 3 Wochen hat die Website-Suche unter den Sitelinks eingeführt - und jetzt beschweren sich die ersten Geschädigten darüber: Dadurch dass das durchsuchen der Website jetzt auch auf Google-Servern abläuft, entgehen der Website nicht nur Traffic und damit verbundene Werbeeinnahmen, sondern - schlimmer noch - es werden auch in dieser Suche Anzeigen von der Konkurrenz angezeigt. YouTube Suchbox
Die Unternehmen die sich über diese Funktion beschwert haben wurden nicht näher genannt - aber ich kann sie vollkommen verstehen. Durch die Suchfunktion auf der eigenen Seite kann man natürlich Statistiken darüber führen was die User für Content suchen und damit wollen bzw. worauf man sich selbst konzentrieren sollte. Natürlich entgehen auch dadurch jede Menge Werbeeinnahmen - gerade innerhalb von Suchergebnissen wird Werbung sehr häufig angeklickt. Schlimmer aber ist, dass in dieser Seiten-Suche natürlich auch AdWords-Banner angezeigt werden die von der Konkurrenz geschaltet worden sind. Wer Microsoft.com nach "Windows" durchsucht und dann - weil er ein DAU ist - auf einen Banner klickt landet dann halt auf einer Linux-Seite. (Und ich habe DAUs sehr oft dabei beobachtet wie sie Suchergebnisse mit Bannern verwechseln...) Schlecht dabei ist natürlich auch dass die daraus resultierenden Werbeeinahmen nicht mehr an die Website sondern direkt an Google gehen. P.S. Hat jemand eine Ahnung warum YouTube und Microsoft diese Suchbox besitzen und z.B. Yahoo!, Google und GoogleWatchBlog nicht? Alle Suchen besitzen Sitelinks. [heise]
Google Mail Benutzer der Google Mail-Backup Software G-Archiver (aus verständlichen Gründen nicht verlinkt) sollten die Software schleunigst von ihrem PC löschen und sich nicht mehr mit dieser Software einloggen. Wie ein User der Software jetzt herausgefunden hat, verwendet die Software das Passwort zum Google-Account nicht nur für sich selbst, sondern leitet die Zugangsdaten auch an den Entwickler der Software weiter... Google Mail Inbox
Original Coding Horror hat durch Reverse Engineering herausgefunden dass sich in der Software die Zugangsdaten für den Google Mail-Account jterry79@Google Mail.com befunden haben. Er hat sich dann in diesen Account eingeloggt und traute seinen Augen kaum: Im Posteingang befanden sich insgesamt 1.777 Mails mit Zugangsdaten zu allen Google-Accounts bei denen die Backup-Software eingesetzt worden ist. Coding Horror hat dann das einzig richtige getan: Alle Mails gelöscht, die Zugangsdaten für den Account geändert und den Google-Support darüber informiert. Ob und wie Google reagiert hat ist derzeit nicht bekannt, wahrscheinlich wurde der Account aber deaktiviert.
Die User die diese Software eingesetzt haben sollten aber dennoch dringend ihr Passwort ändern. Auch wenn die Mails gelöscht sind, muss es ja nicht heißen dass die Zugangsdaten nicht schon längst weitergeleitet oder per Outlook & co. abgerufen worden sind. Und was lernen wir daraus? Niemals die Zugangsdaten zu eurem Google-Account (das gilt äquivalent natürlich auch für andere Internet-Accounts und Zugangsdaten) einer fremden Person oder Software anvertrauen. Wahrscheinlich war die Backup-Software zwar ganz nützlich, aber ich denke unter diesen Gesichtspunkten kann man auf die Nutzung durchaus verzichten ;-) » Posting bei Coding Horror [Google Blogoscoped]
Orkut Im Dezember 2007 wurde circa 400 000 orkut Accounts mit einem Wurm infiziert. Nun gibt es einen neuen Wurm. Dieser trägt den Namen W32.Scrapkut. Laut heise und Symantec funktioniert der Wurm so: Im Gästebuch wird eine Nachricht verfasst und ein Link auf ein YouTube Video gesetzt. Will der Anwender es abspielen, wird aufgefordert die Datei "flashx_player_9.8.0.exe" zuinstallieren. Nun folgt ein Hinweis in Portugiesisch. Deswegen wird vermutet, dass der Wurm besonders auf Brasilien zielt. Das Programm lädt weitere Software herunter und installiert sie. Eine davon ist eine Spyware, die dann die Login Daten von orkut abgreift und Links zum "YouTube Video" im Netz verbreitet. Weitere Details bei heise und Symantec
Captcha
Bislang galten Captchas eigentlich als relativ sichere und unknackbare Barriere für Spam-Bots und haben selbige von automatisierten Registrierungen, allen voran bei Freemailern, ferngehalten - doch damit scheint es jetzt vorbei zu sein. Spammer haben jetzt eine Software entwickelt mit der Captchas mit einer Erfolgsrate von 20% geknackt werden - allen voran Googles Captchas. Googles Captchas galten bisher als sehr effektiv, sie sind waren leicht für den aber sehr schwer für Bots lesbar. Da dieser Schutz jetzt geknackt zu sein scheint, steht Google Mail jetzt für alle Spam-Bots der Welt offen und Googles Mail-Dienst könnte innerhalb weniger Tage zur Spamschleuder werden. Bisher war das eher Hotmails und Yahoo!s Problem, Google Mail hingegen galt als sauber und steht auf viele Whitelists - fragt sich nur wie lange noch... Jetzt muss man sich natürlich fragen wie man Spam-Bots noch aussperren kann. Sind wir schon soweit dass Quizfragen beantwortet werden müssen und wir damit einen Großteil aller User aussperren? Es ist schon traurig genug dass Captchas heutzutage kaum noch lesbar sind (bei vielen Seiten muss ich mehrmals aktualisieren um das lesen zu können) und trotzdem immer noch geknackt werden. Für Google Mail wäre die optimale Lösung jetzt eine Mail-Out-Begrenzung. Sagen wir 50 Mails am Tag, danach muss erneut per Captcha freigeschaltet werden. Für die Outlook- und Thunderbird-Nutzer gehts halt nach 50 Mails nicht weiter - anders geht es eben nicht mehr. Wäre schade wenn Google Mail den gleichen Ruf bekommt wie Yahoo!s und Microsofts Mail-Dienste. [Standard]
Maps Durch die Möglichkeit das eigene Unternehmen bei den Google Maps einzutragen, wird diese Plattform bei Spammern zunehmend beliebter. Mir ist schon öfter _ein_ Spam-Eintrag im Maps-Index aufgefallen, aber das was Malte entdeckt hat setzt dem ganzen die Krone auf: Ein Mechaniker ausTralien ;-) hat seine Werkstatt nicht nur in der eigentlichen Adresse sondern auch in allen umliegenden Straßen eingetragen. Maps Spam
Mit folgender Begründung hat der Mechaniker obigen Screenshot gerechtfertigt:
Auch wenn wir nur einen richtigen Standort haben, sollte es uns als mobile Mechaniker gestattet sein uns bei Google Maps für jede Hauptstraße in unserem Einzugsgebiet einzutragen.
Natürlich sind die Maps durch ihre Beliebtheit und der Möglichkeit kostenlos Einträge zu erstellen eine sehr attraktive Werbefläche, aber ob man als Kunde unbedingt zu einer Werkstatt geht die sich selbst so bespammen muss? Und das ist bei weitem kein Einzelfall, wie in Maltes Artikel zu sehen... P.S. Ist schon einmal jemandem aufgefallen dass M A P S rückwärts geschrieben S P A M ergibt? :-D » LORM: Krasser Google Maps Spam
Google Heute vormittag war Google in der Schweiz in der Zeit von 10:15 bis 11:00 fast komplett nicht erreichbar. Der Ausfall - ausgelöst durch die Kappung eines Glasfaserkabels in Zürich - betraf nur Google und nur Kunden der Swisscom. Weder Google noch Swisscom sollen die Schuld an dem Ausfall tragen. Die interessante Frage ist, warum war nur Google und das nur bei Swisscom-Kunden nicht erreichbar? Hat Google ne eigene Leitung bei Swisscom? [20 Minuten, thx to: robs]
Blogger in Draft Manchmal kommt es vor, dass man einen Blogpost erst zu einem bestimmten Zeitpunkt in der Zukunft veröffentlichen möchte, etwa zu einer Nachtschlafenden Uhrzeit oder bei Urlaubsabwesenheit. Zusammen mit der Bloglist-Funktion wurde auch dieses Feature jetzt bei Blogger eingeführt. Leider scheint der Y2K-Bug an Blogger vorbeigegangen zu sein, und er tritt hier wieder auf. Blogpostings in der Zukunft
Um einen Beitrag in der Zukunft zu veröffentlichen, müsst ihr einfach nur das Datum und die Uhrzeit bearbeiten und der Post wird minutengenau veröffentlicht. Leider wird das Datum in dem Format DD.MM.YY angegeben, was natürlich gerade in unserer Zeit - noch nahe am Jahrtausendwechsel - sehr verwirrend ist. Ist bei 16.02.98 jetzt 1998 oder 2098 gemeint? Ersteres ist natürlich wahrscheinlich da die meisten von 2098 garnicht mehr erleben werden und der Blog wohl auch nicht mehr bestehen wird, aber verwirrend ist es dennoch. Noch interessanter ist es aber wenn ihr etwa 16.02.50 angebt. Also ein Veröffentlichungsdatum 1950 bzw. 2050. Dann gibt Blogger nämlich eine Fehlermeldung aus die gänzlicher Käse ist:
Das Post-Datum muss zwischen dem 1. Januar 1970 und dem 31. Dezember 9999 liegen
Abgesehen davon dass 9999 durch das zweistellige Jahresformat garnicht möglich ist, wird es wohl niemanden geben der darauf vertraut dass Blogger auch in 8.000 Jahren noch besteht. In der allgemeinen Praxis wird man Postings natürlich nur wenige Stunden oder Tage in der Zukunft veröffentlichen, wobei die Funktion fehlerfrei funktioniert. Von daher eine schöne Funktion, wusste garnicht dass Blogger das bisher noch garnicht angeboten hat. Google selbst wird das jetzt auch wohl selbst nutzen, damit etwaige Ankündigungspostings nicht wieder zu früh veröffentlicht werden - kam ja schon öfter vor. Ergänzung von Pascal: Wie immer sieht man diese Funktion nur wenn auf draft.blogger.com unterwegs ist. Wenn ein Nutzer immer Blogger in draft nutzen will, gibt es diese kleine Script. Geplanten Posts sind nur sichtbar, wenn man Draft nutzt. » Ankündigung im Blogger-Blog [Googlified]
Orkut Derzeit treibt sich ein Wurm in Googles Orkut-Netzwerk herum und soll dabei schon über 400.000 Orkut-Konten infiziert haben. Der Wurm versendet sich automatisch selbst als Scrapbook-Eintrag und verbreitet sich dann beim Empfänger selbst. Sobald der Empfänger den Eintrag liest wird der gleiche Eintrag an all eure Kontakte weitergeleitet. Wie das ganze genau funktioniert kann ich euch leider nicht sagen, der Quellcode des Wurms ist aber offen zugänglich. Google soll den Wurm erst durch ein komplettes herunterfahren des Orkut-Netzwerks erreicht haben. Ich habe in diesem Bereich leider nicht all zu viel Ahnung, aber wie kann ein Wurm sich denn bei einem Social Network einklinken und dann einzelne Profile "befallen"? » Quellcode des Wurms [TecChannel, thx to: Driver]
Microsoft vs. AdWords Einer der wichtigsten Grundsätze jeder Suchmaschine ist, dass sich der Spider gefälligst an die robots.txt zu halten hat und die darin verbotenen Links/Verzeichnisse/Regeln garnicht erst aufruft bzw. beachtet. Microsofts Live-Suchmaschine tut dies eigentlich relativ zuverlässig, hat aber ausgerechnet beim Konkurrenten Google dabei geschlampt. Und so finden sich jetzt Millionen AdWords-Links in Microsofts Suchindex... das kann teuer werden! live.com
Eine Suche nach site:www.google.com/pagead bei Live.com gibt derzeit über 4 Millionen Suchergebnisse zurück. Google hat das spidern dieser Links in seiner robots.txt ausdrücklich verboten und das aus gutem Grund. Klickt jetzt jemand auf eines dieser Links bei live.com wird dies bei Googles AdServer als Klick auf einen Werbebanner gewertet und der Inserent muss blechen. Leider kann man in der Suchergebnisseite nicht sehen wohin man geleitet wird und von daher dürfte die beworbene Seite für 99% uninteressant sein - was dem Inserenten der dafür Teuer Geld (sic!) bezahlt wohl garnicht gefallen dürfte. Jetzt ist es natürlich interessant wie Microsoft dieses Malheur passieren könnte. Hat man die Google robots.txt manuell einfach aus dem eigenen Spider ausgefiltert und die gesamte Website mal eben abgeklappert? Will Microsoft Googles Suchergebnisseiten spidern und diese Daten eventuell für sich selbst nutzen? Rein zufällig wird das sicherlich nicht passiert sein, aber den genauen Grund wird MS wohl nicht rausrücken. Außerdem wird sich die Frage stellen wer den Schaden jetzt zu bezahlen hat: Variante 1: Die Inserenten können sich jetzt nicht sicher sein ob der Klick tatsächlich von google.com kommt und der User überhaupt weiß auf welcher Seite er landen wird. In diesem Fall könnten die Inserenten Geld von Google zurückfordern - und Google wird sich das Geld sicherlich bei Microsoft eintreiben. Variante 2 wäre, dass Google auf seinem AdWords-Server nur Klicks wertet die von Google.com ausgeführt werden und so dem Inserenten nichts in Rechnung gestellt wird. Dann allerdings hätte Google den Inserenten kostenlos Besucher verschafft, was natürlich auch nicht ganz im Sinne von Google sein kann. In dem Falle hat nur der Google den Schaden und der Inserent freut sich über die zusätzliche Promotion. Mal schauen wie lange Microsoft diese Links in seiner Suchmaschine listen wird... » Suche nach Google Ads [infopirat, thx to: seekXL, raven SEO Tools]