Google ist seit vielen Jahren im Gesundheitsbereich aktiv und dürfte mit Fitbit wohl gerade erst an der Oberfläche dessen kratzen, was in Zukunft mit smarten Geräten möglich sein soll. Jetzt hat das unabhängige Forscherteam von Google Research ein interessantes Projekt vorgestellt, mit dem sich die Herzfrequenz der Nutzer ganz einfach per Kopfhörer messen lassen soll. Dafür ist lediglich ANC und ein Software-Update notwendig.
Die Frage nach dem Wetter beschäftigt nicht nur sehr viele Menschen, sondern auch Google muss Tag für Tag millionenfach den Wetterbericht ausspucken, der in der Google Websuche seit langer Zeit sehr detailliert umgesetzt ist. Das scheint dem Unternehmen aber langfristig nicht mehr auszureichen, denn durch mehrere Aktivitäten in der jüngeren Vergangenheit zeichnet sich ab, dass Google zukünftig eigene Wetterdaten berechnen und ausliefern möchte.
Googles Forscher beschäftigen sich naturgemäß immer wieder mit neuen Technologien, die möglicherweise in Zukunft in kommerziellen Produkten zum Einsatz kommen könnten - dazu zählen auch neuartige Eingabemethoden. Jetzt hat das Google AI-Team das E-Textil vorgestellt, bei dem es sich vereinfacht gesagt um eine Schnur handelt, die mit diversen Gesten Eingaben entgegennehmen und auch visuelle Rückmeldungen geben kann.
Bei Google stand einige Jahre alles unter dem Motto "Mobile First", das bis heute gilt. Auf der vergangenen Google I/O wurde dann das Motto "AI First" ausgerufen, das in den vergangenen 12 Monaten auch sehr ernst genommen wurde, wie an unseren unzähligen Artikeln zur Künstlichen Intelligenz gut zu sehen ist. Jetzt hat man eine interne Umstrukturierung angekündigt und nennt den gesamten "Google Research"-Bereich ab sofort "Google AI".
Googles Ingenieure beschäftigen sich nicht nur mit der Weiterentwicklung der eigenen Produkte, sondern nehmen immer wieder auch Standards wie Protokolle oder Dateiformate unter die Lupe und suchen nach Verbesserungspotenzial. Jetzt hat Google den JPEG-Encoder Guetzli veröffentlicht, mit dem Bilder in dem schlanken Dateiformat noch einmal um gute 30 Prozent verkleinert werden können.
Google Research hat in der Vergangenheit in vielen Bereichen geforscht und dadurch unter anderem große Fortschritte im Bereich der Künstlichen Intelligenz gemacht. In Zukunft soll dieser Bereich aber nicht nur rein amerikanisch bleiben, sondern wird nun um eine europäische Niederlassung erweitert: In Zukunft wird das Team von Google Research Europe aus dem Forschungslabor in Zürich operieren.
Auf der Plattform Think with Google von Google Research werden regelmäßig Statistiken und Zusammenhänge zwischen Suchanfragen und Kaufverhalten veröffentlicht. Jetzt hat man sich den Verkaufszahlen von Smartphones angenommen - und Google konnte anhand von Klickzahlen zu 90% den Erfolg/Misserfolg eines Gerätes vorhersagen.
YouTube Das Google Research-Team hat mal wieder ein sehr interessante Tool veröffentlicht: Die Abteilung Spracherkennung scheint mittlerweile so sehr auf die eigene Technologie zu vertrauen, dass man jetzt ein Gadget für iGoogle veröffentlicht hat mit dem die Videos aller US-Präsidentschaftskandidaten nach einzelnen Wörtern durchsucht werden können. iGoogle Gadget Spracherkennung
Das Gadget ist ganz einfach zu bedienen: Einfach das gewünschte Wort einzugeben und eventuell noch auswählen ob nur Videos von Obama oder McCain oder aller Kandidaten durchsucht werden soll. Am unteren Ende des Gadgets wird eine Liste mit Videos angezeigt in denen die Wörter vorkommen. Spielt man das Video ab, kann man direkt zu der Stelle springen an dem das Wort fällt. Die entsprechende Position ist im Video gelb markiert. Zum Startschuss des großangelegten Tests werden nur Videos der Präsidentschaftskandidaten auf YouTube, oder YouChoose durchsucht. Google gibt zwar an, dass das ganze vielleicht nicht 100%ig zuverlässig funktioniert, aber scheint sich doch so sicher zu sein, das ganze bei einem doch relativ wichtigen Thema auszuprobieren und auch das Beta-Label sucht man in diesem Fall vergeblich. Getestet und trainiert wurde die Spracherkennung schon seit langer Zeit mit Goog-411. Durch dieses Angebot hat Google nahezu jeden Dialekt und Stimmlage und auch verschiedene Aussprachen bereits aufgenommen und untersucht. Ich denke wenn das ganze jetzt bei Obama & Co. gut funktioniert, könnte man dieses Feature demnächst auch standardmäßig bei YouTube finden. Sicherlich wird es eine ganze Zeit lang dauern _alle_ Videos bei YouTube nach bestimmten Texten und Wörtern zu durchsuchen und entsprechend zu indizieren, aber ich könnte wetten dass das YouTube-Team bereits damit begonnen hat. Wenn die Spracherkennung wirklich reibungslos funktioniert ist das doch mal wieder eine schöne Innovation mit der Tags & Co. praktisch schon überflüssig werden - wenn entsprechend viel im Video gesprochen wird. » Gadget zu iGoogle hinzufügen » Ankündigung im Google-Blog
Google Der Leiter von Google Research, Peter Norvig, hat auf der "Emerging Technology"-Konferenz in San Diego einen Einblick in Googles Such- und Übersetzungstechnologie gegeben. Aus diesem ergibt sich, dass das Unternehmen nicht nur auf komplizierte Modelle und Theorien setzt, sondern vor allem auch auf eine sehr große Menge an Daten. Bei der Übersetzung von Chinesisch-Englisch erklärt sich das am besten: Im Chinesischem bilden mehrere Schriftzeichen ein Wort, aber ein Schriftzeichen bedeutet gleichzeitig auch ein anderes bzw. eine andere Silbe. Um halbwegs sinnvolle Chinesisch-Englisch Übersetzungen zu liefern, werde bei der Übersetzung Vergleichsdaten - Wahrscheinlichkeitstabellen - untersucht. Dann wird bei der Übersetzung eines Textes mit diesen Tabellen verglichen. Sehr ähnlich ist es bei der Bildersuche. Bisher wurden nur die Metadaten eines Fotos verwendet. Das ergab eine hoche Fehlerquote. In Zukunft will man die ersten 1 000 Bilder der Ergebnisse vergleichen und dann Ähnlichkeiten feststellen. Haben zwei Bilder viele Punkte gemeinsam werde sie als ähnlich und damit relevant eingestuft. Laut Norvig ist die Datenmenge das Problem der Start-ups. Google habe durch große Serverfarmen genügend Speicher um solche Tabellen anzulegen. [Winfuture]
Research Laut einer aktuellen Studie von Google Research nimmt die Verbreitung von Würmern, Trojanern und ähnlicher Schadsoftware über das Internet immer mehr zu - und das nur wegen längst bekannter Sicherheitslücken. Millionen von Webseiten und eMail-Servern tragen unwissentlich zur Verbreitung solcher Software oder Spam-Mails bei ohne es zu wissen. Das schlägt sich natürlich auch auf Googles Suchergebnisse nieder: In jeder hundertsten Websuche findet sich mindestens ein Link zu einer solchen Seite wieder. Besonders chinesische Webmaster machen sich nicht all zu viele Gedanken um ihre Sicherheitssysteme und betreiben somit ein Paradies für solche Schadsoftware. 67% aller Schadsoftware wird in China gehostet und wird zu 64% über chinesische Seiten vertrieben. Auf Platz 2 folgt die USA mit je 15% in beiden Bereichen. Deutschland hält sich mit 1% Hosting und 2% Verbreitung aber auch in den Top10. Mehr als 38% aller infizierten Server nutzen veraltetete Software von Apache bzw. eine alte PHP-Version mit Sicherheitslücken. Durch ein einfaches Updates könnte das ganze unterbunden werden - aber anscheinend interessieren solche Studien niemanden. Viele Webseiten verbreiten Schadsoftware oder zumindest Links dazu unwissentlich durch von Hackern eingebaute iFrames die niemandem einfallen. Das liegt teils an unsicherer Software, teils an 123abc-Passwörtern und teilweise natürlich auch an Webseiten die jeden HTML-Code ungeprüft von ihren Usern annehmen und veröffentlichen. Mittlerweile finden sich bei 1% aller Suchergebnisseiten mindestens ein Link zu einer Seite die Schadsoftware verbreitet oder zumindest verlinkt. Der Trend ist leider sehr stark ansteigend, in den letzten 10 Monaten hat sich diese Zahl verdreifacht. Google kann gegen die eigentliche Verbreitung nicht viel tun, ist aber immerhin darum bemüht Links zu solchen Seiten entweder nicht im Index zu führen oder den Besucher vor dem aufrufen der Seite zu warnen. Wenn aber immer mehr Seiten zur Verbreitung beitragen muss bald vor dem Besuch des halben Webs gewarnt werden... Grund genug für alle Chinesen endlich ihre Software upzudaten ;-) » Studie von Google [PDF] [heise]
Research Zur Zeit besteht die Seite Google Research nur aus einer Reihe von Informationen rund um Googles Forschungsabteilung und dessen Ergebnisse bzw. Publikationen. Aber natürlich betreiben auch viele andere Unternehmen, Universitäten und freie Wissenschaftler Forschung - ohne dass die große Masse darauf Zugriff hat. Das möchte Google jetzt ändern und wird in den nächsten Tagen eine eigene, offene, Forscher-Datenbank aufbauen. Laut Informationen von internen Google-Quellen wird das neue Portal direkt unter der Adresse research.google.com erreichbar sein und jedem Wissenschaftler und Forscher die Möglichkeit geben seine Ergebnisse zu veröffentlichen. Die dort eingestellten Daten können dann von der ganzen Welt durchsucht, angesehen und auch ausgewertet werden. Für die Auswertung steht der Trendalyzer, den Google vor knapp 1 Jahr übernommen hat, bereit. Für die ansprechende Präsentation der eingestellten Daten ist also schon einmal gesorgt. Der Speicherplatz zur Veröffentlichung der eigenen Forschungsdaten soll übrigens unbegrenzt zur Verfügung stehen. Von einem wenige-KB-Textdokument über Gigabyte-Videos bis hin zu Fotoserien und Datenströmen die die TB-Grenze durchbrechen soll alles möglich sein. Erstere wird man noch über ein Web-Interface hochladen können, aber um einige TB an Daten auf die Plattform zu bringen hat Google eine eher herkömmliche Methode: Wer eine große Datenmenge in das Portal laden möchte, muss sich bei Google registrieren und bekommt dann einen kleinen Festplatten-Tower mit einer Speicherkapazität von 3 TB zugeschickt. Auf dieses Speichermedium kann der Wissenschaftler dann seine Daten kopieren und an Google zurück zu senden - Google sorgt dann dafür dass die Daten innerhalb kürzester Zeit öffentlich verfügbar sind. Die dazugehörige Technik ist ebenfalls, wie der Trendalyzer, seit März 2007 vorhanden. Der Starttermin für dieses Projekt lag in der letzten Woche, Google Research ist also längst überfällig und kann jeder Zeit an den Start gehen. Zum Start soll Google das Portal auch selbst schon mit interessanten Daten gefüttert haben - so soll etwa alleine vom Hubble-Teleskop Bildmaterial mit einer Größe von 120 TB (!) zur Verfügung stehen. Ich denke das Portal könnte, insbesondere in Verbindung mit dem Trendalyzer, ein schönes Spielzeug werden und die Hobby-Forschung fördern ;-) P.S. Bisher handelt es sich, wie bei Google üblich, nur um ein Gerücht - aber ich halte es für sehr realistisch. Hier noch eine Präsentation zu Google Research vom Mai 2007: » Artikel bei Wired » Artikel bei Pimm [thx to: Richard]
Google Egal wieviele Features und Redesigns Google, Yahoo!, Live & co. ihren Suchmaschinen zuführen, im Grunde ist es immer dasselbe: Ein Suchschlitz, ein Button und die Anfrage wird in Stichwörtern eingegeben. Das war vor 10 Jahren so, ist heute so und wird auch in 10 Jahren noch so sein - zumindest prognostiziert dass Peter Norvig, Forschungsdirektor bei Google.
Wir glauben, dass es wichtiger ist, die richtigen Ergebnisse auszugeben, nicht die Schnittstelle zu verändern. Wir haben das vorher immer dem Nutzer aufgebürdet, ob er nun im Web, nach Bildern oder Videos suchen will. Nun versuchen wir, das für ihn zu lösen und die Ergebnisse zu präsentieren, die sinnvoll sind
In den letzten Jahren war immer wieder die Rede von in Entwicklung befindlichen Techniken die es ermöglichen sollten mit Suchmaschinen zu kommunizieren bzw. dass eine Frage in natürlicher Sprache eingegeben werden kann und von der Suchmaschine beantwortet wird. Wirklich viel hat man davon aber noch nicht gesehen, und die die es versucht haben haben kläglich versagt. Scheinbar hat auch Google diese vermeintliche Zukunftstechnik jetzt aufgegeben - oder warum äußert sich Peter so kritisch darüber? Norvig ist der Meinung dass die eigentliche Anfrage-Technik gegenwärtig perfekt ist und nicht weiter verbessert werden kann - die Hersteller sollten sich lieber auf die Verbesserung der Suchergebnisse konzentrieren. Als Forschungschef ist Peter Norvig natürlich sehr gut über Googles zukünftige Pläne informiert und dürfte mit seiner Prognose die grobe Richtung für Googles Suchmaschine in den nächsten Jahren vorgegeben haben: Mehr Konzentration auf Universal Search und eine eventuelle Design-Änderung der Suchergebnisse - Suchanfragen in natürlicher Sprache dürfen wir wohl eher nicht erwarten. » Interview bei Technology Review
Peter Norvig Peter Norvig, gab ein Interview bei technology review. Als Chef von Google Research ist er direkt mit der Umsetzung der Unternehmensmission, die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen, beschäftigt. Als Experte für Künstliche Intelligenz verbrachte er bereits vor seiner Zeit bei Google den Großteil seiner Zeit mit diesem Thema, lehrte an Universitäten, forschte in Unternehmen und bei der NASA und schrieb das einflußreiche Buch "Künstliche Intelligenz: ein moderner Ansatz". Norvig kam 2001 als Direktor für die Suchqualität zu Google und erreichte seine derzeitige Postion vier Jahre später. In dieser Rolle leitet er 100 Informatiker bei ihrer Arbeit an den unterschiedlichsten Projekten von der Verwaltung medizinischer Daten bis hin zu maschineller Übersetzung von Sprachen. Eine unzählige Menge von Servern, die das durchsuchbare Internet zwischenspeichern biten den Enwtwicklern eine Spielwiese als Testplattform und Datenquelle für die ausgeklügelten Algorithmen. Er sagt Google ist so strukturiert, dass die Forscher nicht vom Rest der Firma isoliert sind. "Sie können sich voll auf das Produkt konzentrieren, an dem sie arbeiten" Als Norvig in Mountain View ankam war die Suche im Internet nichts weiter als die Seiten, die am besten zu einer Anfrage passten. Doch das Internet ist gewachsen und die Benutzer wollen schnell gefilterte Informationen. Im Interview erklärt er was in der Suche als nächstes kommen wird. hier die Übersetzung: Technology Review: Google hat viele innovative Produkte, aber die Art und Weise der Google Suche hat sich in den letzten 10 Jahren kaum geändert. Warum? Peter Norvig: Wir haben mit der Google Suche genau das, was der Nutzer möchte. Und wir waren nicht die ersten, denken Sie an Excite und den Suchmaschinen davor. Sie haben ein Eingabefeld und erhalten eine Liste mit 10 Ergebnissen, ein paar kurze Informationen dazu, fertig. Diese Simplizität ist uns Erfolg. Technology Review: Was hat sich in den Jahren generell geändert? Peter Norvig: Das Ausmaß, es gibt wahrscheinlich tausend Mal mehr Informationen wie zu unseren Anfängen. Damals bestand das WWW fast nur aus Webseiten, heute sind es Videos, Bilder, Blogs und zahlreiche andere Arten von Medien und Formaten. Auch die Erwartung unser Nutzer hat sich geändert. Als ich angefangen habe, haben wir den Index nur einmal im Monat aktualisiert. Wir dachten damals eher an eine Art Bibliothek, eine langfristige Sache. Jetzt begreifen wir unsere Suche eher als Momentaufnahme. Unsere Nutzer möchten aktuelle Nachrichten schon nach wenigen Minuten abrufen können, nicht erst nach Tagen oder Wochen. Technology Review: Sie behaupten, die Qualität der Suchergebnisse von Google ist sehr gut. Woher nehmen Sie diese Erkenntnisse und was machen Sie, um die Ergebnisse noch besser zu machen? Peter Norvig: Wir testen es in vielfältiger Form. Zum einen verfolgen wir auf was die Suchenden klicken. Wenn Sie auf die Webseite auf Position 1 klicken und danach nicht weiter suchen, bedeutet dieses wahrscheinlich, dass sie gefunden haben was sie wollten. Wenn unsere Nutzer nach unten scrollen, weiterblättern oder die Suchanfrage neu formulieren, entsprechen die Ergebnisse nicht ihren Erwartungen. Darüber hinaus engagieren wir Menschen, die uns für definierte Suchanfragen die Ergebnisse bewerten. Es sind verschiedene Firmen, welche wir beauftragen. Wir schulen diese, damit sie Spamseiten und andere schlechte Ergebnisse erkennen können. Diese Ergebnisse lassen wir dann als eine Art `Qualitätssiegel´ mit in unsere Bewertung einfließen, was uns natürlich nicht bei allen Seiten möglich ist. Auch führen wir Versuche durch, beobachten z.B. Nutzer bei uns oder zuhause, analysieren wie und was sie genau suchen. Technology Review: Unternehmen wie Ask und Powerset prophezeien, dass die Suche immer sprachorientierter wird und Menschen zukünftig eher mit ganzen Sätzen als mit nur einigen Keywords suchen werden. Wie geht Google damit um? Peter Norvig: Uns ist es wichtig, zunächst einmal daran zu arbeiten, dass jedes einzelne Wort genau die Ergebnisse liefert, die sich der Nutzer wünscht. Wir glauben nicht wirklich, dass es ein großer Fortschritt ist, einen Satz in eine Suchmaschine eingeben zu können. Wenn Sie beispielsweise die Frage `Was ist die Hauptstadt von Frankreich?´ eingeben, werden Sie keine besseren Ergebnisse erhalten wie bei der Eingabe `Hauptstadt Frankreich´. Einzelne Begriffe richtig zuordnen zu können ist viel wichtiger. `New York´ ist z.B. anders als `York´, `Vegas´ aber im Prinzip das Gleiche wie `Las Vegas´ und `Jersey´ kann, muss aber nicht das Gleiche sein wie `New Jersey.´ Das ist der Schwerpunkt unserer Arbeit. Wir arbeiten fokusiert an der richtigen Zuordnung von Begriffen bzw. Phrasen, nicht an der von ganzen Sätzen. Wir sind der Meinung, es ist in erster Linie wichtig, die Qualität der Ergebnisse zu verbessern, nicht die Eingabemethoden. Technology Review: Inwieweit wird sich die personalisierte Suche durchsetzen? Peter Norvig: Wie versuchen diese auf unterschiedliche Art und Weise zu integrieren. Ein gutes Beispiel ist die Zuordnung von ortsspezifischen Nachrichten. Hier funktioniert die Zuordnung sehr gut. Außerdem speichern wir die Suchen der einzelnen Nutzer und vergleichen sie miteinander. Wir sind auf einem guten Weg, die personalisierte Suche auf das gesamte Web zu übertragen ist jedoch nicht leicht. Technology Review: Wo sehen Sie die Google Suche in 2 bis 5 Jahren? Peter Norvig: Man wird überall auf der Welt zu jeder Zeit nach vielen verschiedenen Inhalten suchen können. Wir arbeiten natürlich weiter an sprachbasierten Neuerungen oder der Verknüpfung mit dem Handy. Wir möchten unseren Nutzern zu viel Arbeit abnehmen wie nur möglich. Er soll nicht länger entscheiden müssen, ob er nun nach Texten, Bildern oder z.B. Videos suchen möchte. Deswegen arbeiten wir schon jetzt daran, die große Vielfalt der Medien den Bedürfnissen unserer Nutzer entsprechend zu ordnen und zu selektieren. [technologyreview, TechCrunch, Übersetzung einiger Ansätze von SEO United]