Google hat erst vor wenigen Tagen im Rahmen der Galaxy S24-Präsentation das neue Feature Circle to Search angekündigt, das von Samsung recht intensiv als eines der Highlights des neuen Smartphone-Flaggschiffs beworben wird. Jetzt hat Google diese Funktion sowohl für das Galaxy S24 und dessen Neo-Besitzer als auch für alle Nutzer der Pixel 8-Smartphones freigeschaltet.
Die Kartenplattform Google Maps gehört zu den wenigen Google-Produkten, in denen die Augmented Reality erfolgreich integriert wurde und wirklich sinnvoll nutzbar ist. Dennoch hat man die AR-Suche schon vor einigen Monaten umbenannt und spricht nun von Google Lens innerhalb der Suchfunktion. Um das hervorzuheben, gibt es jetzt ein neues Icon.
Google will unter Android eine völlig neue Art der Suche etablieren und setzt dafür auf die Unterstützung von Google Lens sowie der kommenden neuen Funktion Circle to Search. Nutzer von Premium-Smartphones sollen damit die Möglichkeit haben, beliebige Dinge auf dem Display einfach einzukreisen oder per Strich zu markieren und weitere Informationen zu erhalten. Zumindest in der Demo sieht das sehr interessant aus.
Mit dem über die Suchleiste und anderen Stellen leicht erreichbaren Google Lens lassen sich sehr leicht Objekte identifizieren, Texte erkennen, übersetzen und vieles mehr. Der Funktionsumfang wurde immer weiter ausgebaut und jetzt hat sich das Team dazu entschlossen, die Oberfläche ein wenig aufzuräumen und es den Nutzern leichter zu machen. Die Anzahl der verfügbaren Filter wurde halbiert.
Die smarte Bilderkennung Google Lens steht über den Google Assistant jederzeit auf Knopfdruck unter Android zur Verfügung, um den aktuellen Bildschirminhalt zu durchsuchen. Mit dem kommenden Android 14 QPR2 steht ein interessantes Update vor der Tür, das die Auswahl des zu erkennenden Bereichs noch vor der Weiterleitung an Lens ermöglicht. Eine neue Geste macht es möglich.
Die Kartenplattform Google Maps hat vor wenigen Tagen ein sehr umfangreiches Update spendiert bekommen, das eine ganze Reihe vielbeachteter neuer Funktionen in die Android-App bringen wird. Langfristig dürfte aber eine nur wenig beachtete und vermeintlich langweilige Neuerung den größten Einfluss auf die Nutzung der App haben: Die Suchfunktion öffnet sich dank KI für die vielen Zusatzinformationen.
Nutzer von Google Maps dürfen sich demnächst nicht nur über die neue Immersive View-Routenplanung sowie speziell in Deutschland über die Anzeige des Tempolimits und einem neuen Kartendesign freuen, sondern auch die Suchfunktion wird verbessert. Im Rahmen einer großen Ankündigung hat man jetzt gezeigt, wie die Suchfunktion schon in den nächsten Wochen durch die Einbindung der von den Nutzern hochgeladenen Bildern verbessert werden soll. Aber auch die Integration von Google Lens wurde angekündigt.
Nach einer etwas längeren Pause hat man dem Google Assistant in Kombination mit der smarten Bilderkennung Google Lens kürzlich wieder die Möglichkeit spendiert, den Bildschirminhalt zu erkennen. Bisher ist diese Funktion nicht ganz so komfortabel zugänglich, doch mit dem kommenden Android 14 Feature Drop-Update wird Google wohl eine altbekannte Geste zurückbringen.
Der KI-ChatBot Bard erhält in diesen Tagen einen ganzen Schwung neuer Funktionen, zu denen neben einem optimierten Sprachmodell und einer Selbstkontrolle auch die Integration anderer Google-Apps gehört. Die vielleicht stärkste Integration ist die Nutzung von Google Lens, denn der ChatBot lässt sich jetzt auch mit Bildern füttern und kann diese auswerten.
Schon seit langer Zeit ist die Android-App von Google Lookout verfügbar, das eine smarte Bilderkennung für sehbehinderte Menschen bietet und somit eine starke visuelle Unterstützung sein kann. Jetzt hat man einen großen Schritt angekündigt, denn den Nutzern sollen die Fotos nicht mehr nur mit einfachen Worten beschrieben werden, sondern es lassen sich auch konkrete Fragen zum Motiv stellen.