Rund um den Google Assistant ist in den letzten Monaten gefühlt sehr ruhig geworden, denn das sehr zentral positionierte Produkt wurde bei großen Update-Runden einfach vergessen. Aber damit ist es wohl vorbei, denn allein in den letzten Tagen gab es vier größere Änderungen, die auf einen neuen Schwung Assistant-Features hoffen lassen. Das könnte auch mit Googles kommendem Smart Home-Anlauf zu tun haben.
Nach mehreren Jahren in der gefühlten Nische erhält Google Lens jetzt endlich den großen Auftritt und vielleicht die Aufmerksamkeit, die die smarten Augen des Google Assistant benötigen: Ab sofort ist die Verknüpfung zu Lens direkt im Suchfeld der Google-Startseite zu finden und sticht dort mit seinem farbenfrohen Logo hervor. Diese Integration hat sich schon vor Monaten abgezeichnet.
Mit der starken Android-App von Google Lens lassen sich nicht nur Bilder analysieren und nach unzähligen Dingen durchsuchen, sondern es lassen sich auch Texte erkennen und direkt im Originalbild übersetzen. Der übersetzte Text wird über das Originalbild gelegt und gleichzeitig der Text in Quellsprache ausgeblendet. Jetzt hat man ein größeres Update angekündigt, das die Qualität dieser Darstellung verbessern soll.
Mit Google Lens lassen sich sehr leicht Bilder und dessen Inhalte analysieren und weitere Informationen erhalten - aber das hat seine Grenzen. In einigen Fällen kann die gute alte Google Bildersuche das bessere Tool zur Bildanalyse sein, denn es kann im Optimalfall mehr Kontext liefern. Das hat man auch im Lens-Team bemerkt und integriert nun eine Verknüpfung zur Bildersuche in die Android-App.
In der App Google Lens werden viele Möglichkeiten zur Bilderkennung gebündelt, die das Erfassen von Texten, Objekten, Lebewesen, Mathematik-Aufgaben und mehr ermöglicht. Die Oberfläche der App wurde bereits mehrfach umgebaut und jetzt gibt es eine weitere Anpassung, mit der der gewünschte Filter mit nur einem Tap festgelegt und auf das Kamerabild angewendet werden kann.
Über mehrere Jahre ließ sich Google Lens nur auf dem Smartphone verwenden und stand auch dort zu Beginn nur sehr begrenzt zur Verfügung. Das hat sich geändert und mittlerweile drängen die 'Augen des Google Assistant' immer weiter in den Desktopbrowser - zuletzt als fester Bestandteil der Bildersuche. Diese Integration kann sehr praktisch sein, um schnell Texte in Bildern zu erkennen und verwenden.
Kürzlich gab es ein großes Update für Google Lens, das die Möglichkeit zur smarten Analyse von Fotos in den Webbrowser gebracht hat. Google Lens ist dadurch zu einem festen Bestandteil der Bildersuche geworden, hat allerdings ein anderes starkes Tool verdrängt, das jetzt gut versteckt ist, aber nach wie vor zur Verfügung steht. Wir zeigen euch, wie ihr die Rückwärtssuche der Bildersuche nutzen könnt.
Die Google Bildersuche gehört mit Abstand zu den ältesten Produkten des Unternehmens und bietet seit vielen Jahren eine Rückwärtssuche, die auf einem Bild statt Text basiert. Jetzt wurde diese Funktion vollständig gewandelt und durch Google Lens ersetzt, das damit erstmals in großem Stil im Web zur Verfügung steht. Das macht die Rückwärtssuche aber nicht unbedingt besser.
Google hat sehr viele Apps im Portfolio, wobei längst nicht alle bei Millionen von Nutzern zum Einsatz kommen - auch, weil sie kaum bekannt sind. In diese Kategorie dürfte auch Google Lookout fallen, das man als kleinen Bruder von Google Lens bezeichnen könnte und es sehbehinderten Menschen ermöglichen soll, viele Dinge zu erkennen. Mit dem jüngsten Update wird die App noch viel stärker.
Gestern Abend wurde überraschend die dritte Android 13 Beta 3 für die Pixel-Smartphones veröffentlicht, die eine Reihe von nervigen Problemen des vorherigen Release behoben hat. Die neue Version brachte aber auch ein Update für den Pixel Launcher mit, der zwei kleine Verbesserungen im Gepäck hat: Ein neues Icon für Google Lens sowie das automatische Einblenden der Tastatur im App Drawer.