Die Google Bildersuche gehört mit Abstand zu den ältesten Produkten des Unternehmens und bietet seit vielen Jahren eine Rückwärtssuche, die auf einem Bild statt Text basiert. Jetzt wurde diese Funktion vollständig gewandelt und durch Google Lens ersetzt, das damit erstmals in großem Stil im Web zur Verfügung steht. Das macht die Rückwärtssuche aber nicht unbedingt besser.
Google hat sehr viele Apps im Portfolio, wobei längst nicht alle bei Millionen von Nutzern zum Einsatz kommen - auch, weil sie kaum bekannt sind. In diese Kategorie dürfte auch Google Lookout fallen, das man als kleinen Bruder von Google Lens bezeichnen könnte und es sehbehinderten Menschen ermöglichen soll, viele Dinge zu erkennen. Mit dem jüngsten Update wird die App noch viel stärker.
Gestern Abend wurde überraschend die dritte Android 13 Beta 3 für die Pixel-Smartphones veröffentlicht, die eine Reihe von nervigen Problemen des vorherigen Release behoben hat. Die neue Version brachte aber auch ein Update für den Pixel Launcher mit, der zwei kleine Verbesserungen im Gepäck hat: Ein neues Icon für Google Lens sowie das automatische Einblenden der Tastatur im App Drawer.
Die Plattform Google Lens steht schon seit langer Zeit für alle Smartphone-Nutzer zur Verfügung und fristet trotz der umfangreichen Möglichkeiten eher ein Nischen-Dasein. Das will man nun durch eine breite Verfügbarkeit ändern und bringt die Augen des Google Assistant nach und nach auf immer mehr Geräte. In den letzten Wochen gab es große Schritte, die den Nutzerkreis potenziell stark vergrößern können - auch auf dem Desktop.
Mit Google Lens lassen sich schon seit vielen Jahren beliebige Bilder analysieren und nach Objekten sowie Text durchsuchen, die für weitere Zwecke verwendet werden können. Jetzt sind die Augen des Google Assistant bereit für ihren großen Auftritt und werden nicht nur für Tablets optimiert, sondern werden zum festen Bestandteil von Google Chrome. Der Rollout hat bereits begonnen.
Die Augen des Google Assistant, Google Lens, haben in der letzten Zeit mehrere große Updates erhalten und haben als erweiterter Arm der Websuche eine immer größere Bedeutung. Jetzt steht das nächste Update vor der Tür, das bereits für alle Beta-Nutzer ausgerollt wird und eine für Tablets optimierte Oberfläche im Gepäck hat. Dafür laufen einige aktuelle Entwicklungen zusammen, von denen auch die Nutzer der Bildanalyse profitieren können.
Nach Jahren der Eigenständigkeit wurde erst vor wenigen Tagen das neue Google Lens Multisearch angekündigt, mit dem die smarten Augen des Google Assistant in die Websuche integriert werden sollen. Konkret geht es um die Kombination aus Bild und Text, die nun erstmals in dieser Form möglich sein wird. In einigen Beispielen zeigt sich nun, wofür man so etwas benötigen könnte.
Die Augen des Google Assistant, Google Lens wurden schon vor längerer Zeit in den Chrome-Browser integriert und bieten die Möglichkeit, beliebige Bilder zur Auswertung an die Plattform weiterzureichen. Jetzt wird ein Update ausgerollt, das den Funktionsumfang der Ergebnisseite deutlich erhöht und den auf Bildern erkannten Text für zusätzliche Zwecke verwenden kann. So, wie man das bisher vom Smartphone kennt.
Nach mehreren Jahren der Eigenständigkeit wurde vor wenigen Tagen das neue Google Lens Multisearch angekündigt, mit dem die smarten Augen des Google Assistant in die Websuche integriert werden. Konkret geht es um die Kombination aus Bild und Text, die nun erstmals in dieser Form möglich sein wird. In einigen Beispielen zeigt sich nun, wofür man so etwas benötigen könnte.
Ein großer Schritt für Google Lens. Die 'Augen des Google Assistant' liefern schon seit Jahren sehr starke Ergebnisse und bekommen nun endlich ihren großen Auftritt: Google hat das neue Multisearch angekündigt, mit dem sich die visuelle Suche und die klassische Textsuche unter einem Dach vereinen. Das soll vor allem bei der wichtigen Suche nach Produkten helfen.