Es gibt erneut Zuwachs im Billionaires Club: Diesmal haben es die "Augen des Google Assistant" in den elitären Club geschafft. Google Lens ist laut Google Play Store nun auf mehr als einer Milliarde Android-Geräten installiert - was aufgrund der Vorinstallation auf vielen Smartphones nicht wirklich verwunderlich ist.
Auf dem Smartphone steht Google Lens in vielen Apps zur Verfügung, doch auf dem Desktop ließen sich die "Augen des Google Assistant" bisher nur über Umwege nutzen. Das hat sich inzwischen geändert, denn mit der aktuellen Version des Chrome-Browsers lassen sich bei vielen Nutzern sowohl einzelne Bilder als auch Ausschnitte von Webseiten analysieren. Wir zeigen euch, wie das funktioniert.
Vor wenigen Tagen wurde ein großes Update für Google Lens angekündigt, das der Plattform endlich den benötigten Schwung geben soll, um für die Nutzer ein relevantes Tool zu werden. Im Rahmen des großen Lens-Updates bringt man nun endlich die Features, die man vor mittlerweile vier Jahren (!) versprochen und erstmals auf der großen Bühne gezeigt hatte. Das wurde auch höchste Zeit.
Gerade erst wurde ein großes Update für Google Lens angekündigt, das die 'Augen des Google Assistant' auf eine ganz neue Stufe heben soll und nun steht schon die nächste Erweiterung vor der Tür. Bisher ist Lens vor allem auf dem Smartphone nutzbar, doch über den Chrome-Browser möchte man nun auf den Desktop: Die Umsetzung ist dabei völlig anders, als man es bisher von Android kennt.
Mit Google Lens lassen sich unzählige Objekte, Texte und weitere Dinge auf Bildern erkennen, analysieren und mit weiteren Details beschreiben. Wir haben euch bereits einige Möglichkeiten gezeigt und nun zündet Google die nächste Stufe, die die bisher getrennten Bereiche Bild und Text bzw. Suchanfrage miteinander kombinieren soll. Durch die Kombination ergeben sich völlig neue Möglichkeiten.
Mit Google Lens hat der Google Assistant vor langer Zeit Augen erhalten, die nach eigenen Angaben Millionen von Objekten erkennen, analysieren und beschreiben können. Das gilt natürlich auch für sehr große Objekte wie Gebäude, die sich problemlos und überraschend umfangreich mit der App erkennen lassen. Mit dem erst kürzlich gestarteten Live-Modus macht das Ganze sogar noch mehr Spaß.
Die Android-App Google Lens gehört womöglich zu den am meisten unterschätzten Apps im Google-Universum, denn die "Augen des Google Assistant" können zahlreiche Objekte, Gebäude, Texte und mehr erkennen, analysieren und beschreiben. Vielen Nutzern dürfte gar nicht bekannt sein, dass die App auch Texte direkt im analysierten Bild übersetzen und austauschen kann. Wir zeigen euch, wie das funktioniert.
Mit der Android-App von Google Lens lassen sich zahlreiche Objekte, Gebäude, Texte und vieles mehr erkennen, die von den "Augen des Google Assistant" analysiert und anschließend mit zusätzlichen Informationen aufgelistet werden. Allerdings dürfte nur den wenigsten Nutzern bekannt sein, dass Google Lens auch eine starke Produkterkennung enthält, die sich sehr gut als Preisvergleich und andere Recherchen eignet.
Die Android-App von Google Lens hat in den letzten Monaten eine Reihe von Verbesserungen erhalten, mit denen die Nutzung der 'Augen des Google Assistant' weiter erhöht werden soll. Nun gibt es die nächsten Schritte, um die App Fit für die Zukunft zu machen und stärker in den Fokus zu rücken: Der erste Klecks Material You-Design ist da und das Icon erscheint nun in der Google-Suchleiste.
Mit Google Lens lassen sich zahlreiche Objekte, Gebäude und Orte auf Fotos erkennen, die von den "Augen des Google Assistant" analysiert und anschließend mit weiteren Informationen aufgelistet werden. Diese Funktion dürfte vielen Nutzern bekannt sein, aber es gibt noch viele weitere praktische Features, die vielleicht nicht jeder kennt: Heute zeigen wir euch, wie ihr einen abfotografierten Text sehr schnell auf den Computer kopieren könnt.