Die Frage nach dem Wetter beschäftigt nicht nur sehr viele Menschen, sondern auch Google muss Tag für Tag millionenfach den Wetterbericht ausspucken, der in der Google Websuche seit langer Zeit sehr detailliert umgesetzt ist. Das scheint dem Unternehmen aber langfristig nicht mehr auszureichen, denn durch mehrere Aktivitäten in der jüngeren Vergangenheit zeichnet sich ab, dass Google zukünftig eigene Wetterdaten berechnen und ausliefern möchte.
Googles Forscher beschäftigen sich naturgemäß immer wieder mit neuen Technologien, die möglicherweise in Zukunft in kommerziellen Produkten zum Einsatz kommen könnten - dazu zählen auch neuartige Eingabemethoden. Jetzt hat das Google AI-Team das E-Textil vorgestellt, bei dem es sich vereinfacht gesagt um eine Schnur handelt, die mit diversen Gesten Eingaben entgegennehmen und auch visuelle Rückmeldungen geben kann.
Bei Google stand einige Jahre alles unter dem Motto "Mobile First", das bis heute gilt. Auf der vergangenen Google I/O wurde dann das Motto "AI First" ausgerufen, das in den vergangenen 12 Monaten auch sehr ernst genommen wurde, wie an unseren unzähligen Artikeln zur Künstlichen Intelligenz gut zu sehen ist. Jetzt hat man eine interne Umstrukturierung angekündigt und nennt den gesamten "Google Research"-Bereich ab sofort "Google AI".
Googles Ingenieure beschäftigen sich nicht nur mit der Weiterentwicklung der eigenen Produkte, sondern nehmen immer wieder auch Standards wie Protokolle oder Dateiformate unter die Lupe und suchen nach Verbesserungspotenzial. Jetzt hat Google den JPEG-Encoder Guetzli veröffentlicht, mit dem Bilder in dem schlanken Dateiformat noch einmal um gute 30 Prozent verkleinert werden können.
Google Research hat in der Vergangenheit in vielen Bereichen geforscht und dadurch unter anderem große Fortschritte im Bereich der Künstlichen Intelligenz gemacht. In Zukunft soll dieser Bereich aber nicht nur rein amerikanisch bleiben, sondern wird nun um eine europäische Niederlassung erweitert: In Zukunft wird das Team von Google Research Europe aus dem Forschungslabor in Zürich operieren.
Auf der Plattform Think with Google von Google Research werden regelmäßig Statistiken und Zusammenhänge zwischen Suchanfragen und Kaufverhalten veröffentlicht. Jetzt hat man sich den Verkaufszahlen von Smartphones angenommen - und Google konnte anhand von Klickzahlen zu 90% den Erfolg/Misserfolg eines Gerätes vorhersagen.
YouTube Das Google Research-Team hat mal wieder ein sehr interessante Tool veröffentlicht: Die Abteilung Spracherkennung scheint mittlerweile so sehr auf die eigene Technologie zu vertrauen, dass man jetzt ein Gadget für iGoogle veröffentlicht hat mit dem die Videos aller US-Präsidentschaftskandidaten nach einzelnen Wörtern durchsucht werden können. iGoogle Gadget Spracherkennung
Das Gadget ist ganz einfach zu bedienen: Einfach das gewünschte Wort einzugeben und eventuell noch auswählen ob nur Videos von Obama oder McCain oder aller Kandidaten durchsucht werden soll. Am unteren Ende des Gadgets wird eine Liste mit Videos angezeigt in denen die Wörter vorkommen. Spielt man das Video ab, kann man direkt zu der Stelle springen an dem das Wort fällt. Die entsprechende Position ist im Video gelb markiert. Zum Startschuss des großangelegten Tests werden nur Videos der Präsidentschaftskandidaten auf YouTube, oder YouChoose durchsucht. Google gibt zwar an, dass das ganze vielleicht nicht 100%ig zuverlässig funktioniert, aber scheint sich doch so sicher zu sein, das ganze bei einem doch relativ wichtigen Thema auszuprobieren und auch das Beta-Label sucht man in diesem Fall vergeblich. Getestet und trainiert wurde die Spracherkennung schon seit langer Zeit mit Goog-411. Durch dieses Angebot hat Google nahezu jeden Dialekt und Stimmlage und auch verschiedene Aussprachen bereits aufgenommen und untersucht. Ich denke wenn das ganze jetzt bei Obama & Co. gut funktioniert, könnte man dieses Feature demnächst auch standardmäßig bei YouTube finden. Sicherlich wird es eine ganze Zeit lang dauern _alle_ Videos bei YouTube nach bestimmten Texten und Wörtern zu durchsuchen und entsprechend zu indizieren, aber ich könnte wetten dass das YouTube-Team bereits damit begonnen hat. Wenn die Spracherkennung wirklich reibungslos funktioniert ist das doch mal wieder eine schöne Innovation mit der Tags & Co. praktisch schon überflüssig werden - wenn entsprechend viel im Video gesprochen wird. » Gadget zu iGoogle hinzufügen » Ankündigung im Google-Blog
Google Der Leiter von Google Research, Peter Norvig, hat auf der "Emerging Technology"-Konferenz in San Diego einen Einblick in Googles Such- und Übersetzungstechnologie gegeben. Aus diesem ergibt sich, dass das Unternehmen nicht nur auf komplizierte Modelle und Theorien setzt, sondern vor allem auch auf eine sehr große Menge an Daten. Bei der Übersetzung von Chinesisch-Englisch erklärt sich das am besten: Im Chinesischem bilden mehrere Schriftzeichen ein Wort, aber ein Schriftzeichen bedeutet gleichzeitig auch ein anderes bzw. eine andere Silbe. Um halbwegs sinnvolle Chinesisch-Englisch Übersetzungen zu liefern, werde bei der Übersetzung Vergleichsdaten - Wahrscheinlichkeitstabellen - untersucht. Dann wird bei der Übersetzung eines Textes mit diesen Tabellen verglichen. Sehr ähnlich ist es bei der Bildersuche. Bisher wurden nur die Metadaten eines Fotos verwendet. Das ergab eine hoche Fehlerquote. In Zukunft will man die ersten 1 000 Bilder der Ergebnisse vergleichen und dann Ähnlichkeiten feststellen. Haben zwei Bilder viele Punkte gemeinsam werde sie als ähnlich und damit relevant eingestuft. Laut Norvig ist die Datenmenge das Problem der Start-ups. Google habe durch große Serverfarmen genügend Speicher um solche Tabellen anzulegen. [Winfuture]