Gestern Abend hat Google erneut damit überrascht, nicht nur auf die vielen Pixel 4-Gerüchte zu reagieren, sondern aktiv neue Informationen zu verbreiten. Nun ist die Radarsteuerung und Gesichtserkennung offiziell bestätigt und es gibt sogar erste Einblicke darin, wie diese beiden Neuerungen dem Nutzer im Alltag helfen sollen. Der Konkurrenz dürfte man damit voraus sein, es gibt allerdings auch ein ABER...
Google ist bekannt dafür, manchmal ungewöhnliche Wege zu gehen, aber beim Pixel 4-Smartphone schreibt man offenbar jegliche Regeln neu: Erst vor einem Monat hat Google hochoffiziell das Design der Pixel 4-Smartphones bestätigt und nun legt man mit dem nächsten Schwung an Informationen nach, die zwar durch Leaks bereits bekannt waren, aber auf die man sich nun auch offiziell freuen kann. Außerdem gibt es erste Infografiken und ein Demovideo des Radar-Chips.
In diesen Tagen gibt es viele Informationen rund um die kommenden Pixel-Smartphones und ihre neuen Kontrollmöglichkeiten, aber auch eine ganz andere Geräteklasse könnte im Herbst eine große Rolle spielen: Die Smart Displays. In der Google Home-App für Android gibt es nun sowohl eine visuell leicht angepasste Oberfläche als auch Hinweise auf ein neues Reactive UI, das möglicherweise mit der Radar-Funktion des Pixel 4 verwandt sein könnte.
Danke des gestrigen umfangreichen Pixel 4-Leaks sind nun viele Details über das äußere Erscheinungsbild der beiden kommenden Google-Smartphones bekannt. Doch viel wichtiger als das Design ist natürlich der Funktionsumfang - und darüber gibt es derzeit vor allem Spekulationen, aber nur wenig gesicherte Fakten. Jetzt wurden das Design von zwei Displayschutzen geleakt, das in diesem Fall sehr interessant, denn es könnte den Einsatz des Radarchips bestätigen.
In den letzten Tagen gab es bereits erste Bilder der Pixel 4-Smartphones zu sehen, die interessierten Nutzern schon eine Ahnung davon geben, wie die Geräte aussehen werden. In diesem Jahr könnte es aber viel interessanter sein, was unter der Haube steckt - nämlich möglicherweise erstmals ein Project Soli-Chip. Sowohl Gerüchte als auch die Fakten deuten darauf hin, dass die neue Radar-Technologie nun endlich zum Einsatz kommen kann.
Google steckt seit Jahren viele Ressourcen in Projekte rund um die virtuellen Welten der Virtual Reality und Augmented Reality, konnte trotz einiger Erfolge aber noch keinen Durchbruch feiern. Dennoch hält man weiter an beiden Bereichen fest und forscht immer weiter an interessanten Technologien. Wenn die Forscher so weitermachen, haben sie bald alle Werkzeuge zusammen, um ein Holodeck-artiges Erlebnis zu schaffen.
Vor wenigen Tagen hat Googles Project Soli einen großen Sprung gemacht und kann nun sehr bald an den Start gehen und in Produkten eingesetzt werden. Wie genau das Soli-Radar eingesetzt werden soll, ist zwar noch nicht bekannt, aber eine Reihe von Versuchsaufbauten zeigen nun, was damit in der Theorie alles möglich ist. Virtuelle Bedienoberflächen dürften wohl ein wichtiger Bestandteil werden.
Vor mittlerweile über dreieinhalb Jahren hat Google das Project Soli vorgestellt, das es sich zum Ziel gesetzt hat, die Hände und Finger des Menschen als Eingabemethode zu verwenden - ganz ohne jede Berührung. Dazu kommt eine Radartechnologie zum Einsatz, für dessen Anwendung Google erst jetzt die Freigabe von der amerikanischen FCC erhalten hat. Das könnte zukünftig viele interessante neue Geräte und Eingabemethoden ermöglichen.
Noch vor der Umstrukturierung zu Alphabet hatte Googles ATAP-Abteilung (Advanced Technology And Projects) eine Reihe von Projekten gestartet und vorgestellt, die technologische Hürden überwinden und neue Möglichkeiten schaffen soll. Eines dieser Projekte war bzw. ist das Project Soli, das mit Radar-Technologie eine völlig neue Eingabemöglichkeit schaffen sollte. Jetzt hat sich das Team wieder zurück gemeldet und kann erstaunliche Fortschritte zeigen.
Bisher war Googles ATAP-Abteilung (Advanced Technology And Projects) vor allem für das Project Tango-Tablet bekannt, das nun mittlerweile auch in den offenen Verkauf gegangen ist. Doch Hinter den Kulissen wird natürlich noch an vielen weiteren Projekten gearbeitet, wovon nun ein neues auf der Google I/O vorgestellt worden ist: Das Project Soli kann Gesten der Hand des Menschen erkennen und schickt sich an, die gesamte Interaktion mit technischen Geräten zu revolutionieren.