Mit dem über die Suchleiste und anderen Stellen leicht erreichbaren Google Lens lassen sich sehr leicht Objekte identifizieren, Texte erkennen, übersetzen und vieles mehr. Der Funktionsumfang wurde immer weiter ausgebaut und jetzt hat sich das Team dazu entschlossen, die Oberfläche ein wenig aufzuräumen und es den Nutzern leichter zu machen. Die Anzahl der verfügbaren Filter wurde halbiert.
Die smarte Bilderkennung Google Lens steht über den Google Assistant jederzeit auf Knopfdruck unter Android zur Verfügung, um den aktuellen Bildschirminhalt zu durchsuchen. Mit dem kommenden Android 14 QPR2 steht ein interessantes Update vor der Tür, das die Auswahl des zu erkennenden Bereichs noch vor der Weiterleitung an Lens ermöglicht. Eine neue Geste macht es möglich.
Die Kartenplattform Google Maps hat vor wenigen Tagen ein sehr umfangreiches Update spendiert bekommen, das eine ganze Reihe vielbeachteter neuer Funktionen in die Android-App bringen wird. Langfristig dürfte aber eine nur wenig beachtete und vermeintlich langweilige Neuerung den größten Einfluss auf die Nutzung der App haben: Die Suchfunktion öffnet sich dank KI für die vielen Zusatzinformationen.
Nutzer von Google Maps dürfen sich demnächst nicht nur über die neue Immersive View-Routenplanung sowie speziell in Deutschland über die Anzeige des Tempolimits und einem neuen Kartendesign freuen, sondern auch die Suchfunktion wird verbessert. Im Rahmen einer großen Ankündigung hat man jetzt gezeigt, wie die Suchfunktion schon in den nächsten Wochen durch die Einbindung der von den Nutzern hochgeladenen Bildern verbessert werden soll. Aber auch die Integration von Google Lens wurde angekündigt.
Nach einer etwas längeren Pause hat man dem Google Assistant in Kombination mit der smarten Bilderkennung Google Lens kürzlich wieder die Möglichkeit spendiert, den Bildschirminhalt zu erkennen. Bisher ist diese Funktion nicht ganz so komfortabel zugänglich, doch mit dem kommenden Android 14 Feature Drop-Update wird Google wohl eine altbekannte Geste zurückbringen.
Der KI-ChatBot Bard erhält in diesen Tagen einen ganzen Schwung neuer Funktionen, zu denen neben einem optimierten Sprachmodell und einer Selbstkontrolle auch die Integration anderer Google-Apps gehört. Die vielleicht stärkste Integration ist die Nutzung von Google Lens, denn der ChatBot lässt sich jetzt auch mit Bildern füttern und kann diese auswerten.
Schon seit langer Zeit ist die Android-App von Google Lookout verfügbar, das eine smarte Bilderkennung für sehbehinderte Menschen bietet und somit eine starke visuelle Unterstützung sein kann. Jetzt hat man einen großen Schritt angekündigt, denn den Nutzern sollen die Fotos nicht mehr nur mit einfachen Worten beschrieben werden, sondern es lassen sich auch konkrete Fragen zum Motiv stellen.
Nach einer etwas längeren Pause schreitet die Entwicklung des Google Assistant endlich wieder voran und bringt nun ein neues Feature auf erste Smartphones: Mit der neuen Funktion "Search Screen" lässt sich der aktuelle Displayinhalt an Google Lens senden und nach passenden Informationen durchsuchen. Mit dem Update wird das Feature zuverlässiger.
Die smarte Bildanalyse von Google Lens findet sich schon seit langer Zeit auf fast jedem Android-Smartphone, ist in wenigen Schritten zugänglich und fliegt dennoch gefühlt immer unter dem Radar. Das allerdings längst zu unrecht, denn Google hat den Funktionsumfang immer weiter ausgebaut und zeigt nun acht starke Möglichkeiten, mit denen ihr die damaligen 'Augen des Google Assistant' einmal ausprobieren solltet.
Google arbeitet mit Hochdruck am neuen KI-ChatBot Bard, der am gestrigen Tag den bisher größten Schritt seit dem offiziellen Start des Produkts gemacht hat: Denn man hat es nun endlich geschafft, dass Bard in Deutschland starten konnte und parallel dazu eine ganze Flut von Neuerungen vorgestellt, die den Funktionsumfang erweitern. Auch die Integration von Google Lens wird ausgerollt.