GoogleWatchBlog

Pixel 4: Die Gestensteuerung ist enttäuschend – was mit Googles Radarchip Soli wirklich möglich wäre (Videos)

» Web-Version «

Die Pixel 4-Smartphones sind die ersten Geräte am Markt, in denen Googles neuer Soli-Radarchip verbaut ist und eine Gestensteuerung ohne jegliche Berührung des Displays ermöglicht. Doch in der ersten Generation sorgt dieses Feature nicht für Begeisterung, sondern eher für Enttäuschung. Das dürfte sich aber bald ändern, denn diese Technologie ermöglicht eigentlich sehr viel mehr und könnte die moderne Bedienung und Nutzeroberfläche revolutionieren.


Google arbeitet seit mindestens fünf Jahren an der Radartechnologie Soli, denn Mitte 2015 hatten die Ingenieure der innerhalb von Google angesiedelten ATAP-Gruppe das Projekt erstmals vorgestellt und gezeigt, was durch die eigentlich sehr alte Radartechnologie alles möglich sein könnte. Es hat weitere vier Jahre gedauert, bis die erste finale Version des Chips fertiggestellt und schlussendlich in den Pixel 4-Smartphones verbaut werden konnte.

Neben der starken Gesichtserkennung ist die Radarsteuerung eines der Highlights der vierten Pixel-Generation und mit ein Grund für die von einigen Nutzern nicht gerade geliebte Optik des Smartphones. Direkt über dem Display ist dieses Mal keine Notch zu finden, sondern ein vergleichsweise dicker Rahmen – das gefällt nicht jedem. Dieser ist aber notwendig, um all die neuen Komponenten in Form von Kameras, Sensoren und eben auch dem Soli-Chip unterzubringen.

Jetzt war es also soweit und Google hat das erste Smartphone auf den Markt gebracht, dass sich über eine radarbasierte Gestensteuerung steuern lässt. Und dann gibt es ziemlich genau zwei Gesten: Mit der gesamten Hand waagerecht oder senkrecht über das Display. Rechnet man die Richtungen ein, sind es sogar vier Gesten. Wahnsinn. Viele Nutzer sind davon zurecht enttäuscht, denn das war schon vor vielen Jahren bei den ersten Smartphones über eine Bilderkennung mit der Frontkamera oder einem aufgebohrten Abstandssensor möglich.

Aber man darf nicht vergessen, dass das eben nur die erste Generation ist.



Der extrem kleine Funktionsumfang dürfte an zwei Dingen liegen: Google musste den Radarchip noch einmal deutlich verkleinern, womit natürlich auch die Leistungsfähigkeit bzw. Erkennungsrate stark in Mitleidenschaft gezogen wird. Und vielleicht ist auch das einigermaßen stabile Smartphone-Gehäuse sowie die sehr eng aneinander verbauten Komponenten ein großer Störfaktor, der einfach aktuell keine genaueren Bestimmungen zulässt. Das mag sein, aber an diesen Problemen wird das Pixel-Team mit Sicherheit bereits für das Pixel 5 arbeiten.

Das kann Soli wirklich

Soli kann tatsächlich sehr viel mehr als nur die groben Handgesten zu erkennen, wie ihr dem obigen und dem unten eingebundene Video entnehmen könnt. Der wichtigste Punkt ist, dass sehr viel kleinere Objekte und Bewegungen erkannt werden können, etwa die Bewegung eines einzelnen Fingers. Schaut euch dafür das Video ab Minute 0:50 an. Hier wird deutlich, dass der Nutzer klassische Bedienelemente wie ein Rad, einen Schalter oder einen Kopf intuitiv in der Luft bedienen kann, der gar nicht existiert. Von Soli wird das dennoch wahrgenommen.

Es ist also möglich, ganz klassische Bedienelemente nachzuempfinden, was auf dem komplett flachen Smartphone-Display mit reinem Touch einfach nicht möglich ist. Wofür man das genau brauchen könnte erschließt sich mir ehrlicherweise im Moment zwar auch nicht, aber weil es praktisch eine dritte Dimension in die Smartphone-Bedienung bringt, werden sich die Bastler und UI-Designer schon einiges einfallen lassen, das bisher in der Form nicht umsetzbar gewesen ist.



Aber es geht ja nicht nur um das Smartphone, auch wenn das jetzt das erste Produkt gewesen ist, sondern der Chip kann rein theoretisch in allen technischen Geräten Verwendung finden. Insbesondere bei Geräten ohne Display dürften sich da interessante Möglichkeiten ergeben, wie sehr gut im ersten Video bei der Bedienung des Radios zu erkennen ist, das dadurch gleich Mal auf zwei bis drei Bedienelemente verzichten kann und somit auch flexibler wird.

Im zweiten Video könnt ihr sehen, dass Soli aber nicht nur Gesten erkennen kann, sondern auch dazu in der Lage ist, Drehungen zu erkennen, Objekte sehr genau zu erkennen und zu zählen und einiges mehr. In einem früheren Video ist zu sehen, wie die Soli-Technologie Objekte erkennen und somit einen Apfel von einer Orange unterscheiden kann. Das mag im ersten Moment nicht aufregend sein, aber eine solche Erkennung von Formen und Objekten ohne jegliche Kamera ist schon was Feines und dürfte ebenfalls praktische Einsatzgebiete mit sich bringen.

Falls Soli auch in den Pixel 5-Smartphones zu finden sein wird, wovon ich einfach einmal ausgehe, wird es sicher schon weiterentwickelt sein. Die Frage ist natürlich, ob Google mit der ersten Generation nicht hätte warten sollen, bis Soli tatsächlich etwas leisten kann, dass die Nutzer begeistert.

» Pixel 4: So funktioniert der neue Astromodus auf den Pixel-Smartphones – Google gibt interessante Einblicke

» Pixel 4: Googles automatische Live-Untertitel funktionieren auch mit lautlosen Videos

» Pixel 4: Angebliche Sicherheitslücke in der neuen Gesichtserkennung sorgt für Diskussionen (Video)


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | Jetzt den GoogleWatchBlog-Newsletter abonnieren