GoogleWatchBlog

Die Augen des Google Assistant: Google Lens kommt jetzt auch auf die Pixel-Smartphones

» Web-Version «

Mit Google Lens bekommt der Assistent endlich „Augen“ und kann sowohl Bilder als auch Fotos und darauf enthaltene Objekte, Texte und andere Dinge erkennen. Bisher steht Lens aber nur als Vorschau-Version auf den Pixel 2-Smartphones zur Verfügung und sollte eigentlich erst einmal exklusiv bleiben. Aber schon jetzt dürfen sich Besitzer eines Vorjahres-Pixels freuen, denn der Assistent steht jetzt auch für diese Smartphones zur Verfügung.


Der Google Assistant nimmt bisher nur Aufgaben und Fragen in Form von Text oder per Sprache entgegen, bekommt mit Lens aber nun eine zusätzliche Komponente. Mit diesem kann der Assistent dann in Zukunft auch Objekte, Texte, Cover und viele andere Dinge erkennen und Hintergrundinformationen dazu liefern. Das ganze befindet sich aber noch in Entwicklung und steht lediglich in einer Preview-Version zur Verfügung, an der nun auch die Pixel-Nutzer des vergangenen Jahres teilnehmen können.

Seit gestern bekommen einige Besitzer eines Pixel beim Öffnen von Google Photos obigen Hinweis, in dem sie darüber informiert werden dass Lens nun auch auf diesem Smartphone zur Verfügung steht. Lens befindet sich anschließend an der Stelle, an der früher das Info-Symbol für die Fotos zu finden gewesen ist. Viele Nutzer haben dies mittlerweile bestätigt, eine offizielle Ankündigung von Google hat es aber noch nicht gegeben. Gut möglich also, dass es sich auch dabei nur um einen kleinen Kreis handelt und nicht alle Nutzer davon profitieren. Sollte es den Rollout schon jetzt geben, ziehen die Pixel immerhin mit den Pixel 2 gleich.

Auch auf dem Pixel 2 steht Lens derzeit nur innerhalb der Photos-App zur Verfügung und wird erst in wenigen Wochen in den Google Assistant integriert. Andere Nutzer müssen sich aber vermutlich noch mindestens bis zum nächsten Jahr gedulden, um ebenfalls Zugriff auf Lens zu bekommen. So wie im vergangenen Jahr den Assistant, wird man auch Lens exklusiv halten um einen weiteren Anreiz zum Kauf eines Pixel zu geben. Außerdem scheint Lens alles andere als fertig und kann in ersten Tests nicht wirklich überzeugen.

Es ist also vielleicht gar nicht so schlecht, dass Google auch in diesem Jahr wieder auf Exklusivität setzt, bevor man ein halbfertiges Produkt auf alle Nutzer loslässt. Wohl aus gutem Grund hat man Lens noch immer nicht in den Assistant integriert und hält es erst einmal noch für eine Weile nur in der Photos-App.



In obigem Video könnt ihr noch einmal sehen, was der Assistent in Zukunft alles leisten soll. Details zu dieser Demo haben wir euch in diesem Artikel bereits geliefert. Von den gezeigten Möglichkeiten ist Lens derzeit aber noch ein ganzes Stück entfernt, aber ich denke dass Google auch sehr viele Kräfte in dessen Weiterentwicklung bündelt, und sich nicht all zu viel Zeit lässt.

Folgende Dinge soll Lens in Zukunft erkennen:

  • Artwork
  • Paintings, Statues
  • Places
  • Landmarks, Buildings
  • Media Covers
  • Books, Movies, Albums, Video Games
  • Text & Barcodes
  • Text Translation
  • Animals
  • Plants
  • Shopping & Products

Obige Liste ist deutlich länger als die auf dem Screenshot, so dass also noch einiges an Arbeit auf das Team zukommt 😉

[AndroidPolice]


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | Jetzt den GoogleWatchBlog-Newsletter abonnieren