Die smarten Sprach-Assistenten sind längst in den Alltag vieler Nutzer eingezogen und werden nach anfänglicher Skepsis immer häufiger verwendet. Doch trotz der guten Spracherkennung und aller dahinter liegenden Künstlichen Intelligenzen muss man natürlich vorsichtig sein und den Assistenten nicht vollständig vertrauen. Derzeit hält Apples Assistentin Siri nicht nur die deutschen Nutzer sondern wohl auch die Notrufnummern in Atem, denn die Assistenten will ständig die Rettung anrufen.
Es ist nun schon über ein halbes Jahr vergangen, seitdem Google erstmals den smarten Assistenten Lens gezeigt und auch offiziell vorgestellt sind. Schon von Anfang an war die Rede davon, dass Lens sich noch in einer frühen Phase befindet und noch einiges an Entwicklungsarbeit in Anspruch nehmen wird. Jetzt hat Google den Rollout für die Pixel-Smartphones beider Generationen angekündigt und bringt ihn damit erstmals auf die große Bühne.
Google Lens ist zwar ein eigenständiges Paket, gilt aber als Erweiterung für den Assistant und bringt diesem das Erkennen und Analysieren von Bildern und Fotos aller Art bei. Bisher stand Lens aber nur sehr eingeschränkt über die Photos-App zur Verfügung und war ausgerechnet im Assistenten nicht zu finden. Das wird sich für die Besitzer eines Pixel-Smartphones nun ändern, denn bei den ersten ist Lens bereits angekommen.
Viele Funktionen eines Smartphones sind heutzutage in den intuitiven Oberflächen schon sehr leicht zu bedienen und können auch ohne großes Training verwendet werden. Wenn es dann aber doch mal hängt oder Probleme gibt, stehen nicht wenige Nutzer schnell im Regen. Der Google Assistant schickt sich nun an, in Zukunft bei den kleinen und großen Problemen zu helfen, und möchte dem Nutzer beim Lösen von Problemen assistieren, ohne dass der Support kontaktiert werden muss.
Beim Google Assistant geht es derzeit Schlag auf Schlag, und es finden immer wieder neue Verbesserungen den Weg in den smarten Assistenten. Jetzt wurden gleiche ein Dutzend weitere Neuerungen angekündigt, die sich vor allem auf die Entwickler konzentrieren, die mit dem Assistant interagieren und so näher am Nutzer sein möchten. Unter anderem wird es nun möglich, Informationen vom Lautsprecher auf das Smartphone zu senden und den Nutzer stärker und personalisierter zu erreichen.
Was das Thema Betriebssystem-Updates angeht, verhält sich Google seit Jahren vorbildlich und pflegt auch Geräte, die nicht mehr zur aktuellen oder vorherigen Generation gehören weiterhin. Und dabei handelt es sich bei weitem nicht nur um Sicherheits-Updates, wie jetzt sehr gut am Beispiel des Nexus Player zu sehen ist. Dieser bekommt mit dem November-Sicherheits-Update nun tatsächlich vollen Zugriff auf den Google Assistant.
Seit gestern Abend rollt Google wieder eine neue Version der eigenen umfangreichen Android-App aus und bringt die Beta-Version damit auf die Versionsnummer 7.16. In dieser gibt es nur eine sehr winzige aber aufschlussreiche Änderung an der Oberfläche. Außerdem gibt es unter der Haube wieder sehr viel zu entdecken, das uns in Zukunft in der App erwarten wird - unter anderem neue Funktionen für den Google Assistant und ein mysteriöser Schneemann.
Rund ist das neue eckig: Nachdem in den letzten Tagen bereits neue Oberflächen für die mobile Google-App ausgeliefert worden ist, folgt nun auch der dazugehörigen Assistant. Auch dieser bekommt nun ein neues Design und passt sich somit wieder dem Rest der App an, inklusive den nicht mehr eckigen Karten und auch dem freundlicheren und helleren Hintergrund. Aber auch hierbei kommt wieder ein kleines Experiment zum Einsatz.
Es gibt mindestens drei verschiedene Versionen des Google Assistant: Die Smartphone-Version, die Home-Version und die Version aus dem Allo-Messenger. Alle drei haben einen unterschiedlichen Funktionsumfang und bieten jeweils Funktionen an, oder lassen sie vermissen, die auf den anderen Plattformen nicht zu finden sind. Jetzt zieht die Smartphone-Variante bei den täglichen Erinnerungen mit dem Allo-Messenger gleich.
Der Google Assistant hat mittlerweile ein großes Repertoire an Funktionen und Möglichkeiten, die gerade erst mit den Assistant Actions erweitert worden sind. Auf der anderen Seite bietet Googles Infrastruktur einige Funktionen an, die vom Assistenten bisher nicht unterstützt worden sind - dazu gehört auch die Musikerkennung. Diese ist nun endlich serverseitig freigeschaltet worden und kann in Kombination mit den Sprachbefehlen verwendet werden.