Google hat sehr viele Apps im Portfolio, wobei längst nicht alle bei Millionen von Nutzern zum Einsatz kommen - auch, weil sie kaum bekannt sind. In diese Kategorie dürfte auch Google Lookout fallen, das man als kleinen Bruder von Google Lens bezeichnen könnte und es sehbehinderten Menschen ermöglichen soll, viele Dinge zu erkennen. Mit dem jüngsten Update wird die App noch viel stärker.
Gestern Abend wurde überraschend die dritte Android 13 Beta 3 für die Pixel-Smartphones veröffentlicht, die eine Reihe von nervigen Problemen des vorherigen Release behoben hat. Die neue Version brachte aber auch ein Update für den Pixel Launcher mit, der zwei kleine Verbesserungen im Gepäck hat: Ein neues Icon für Google Lens sowie das automatische Einblenden der Tastatur im App Drawer.
Die Plattform Google Lens steht schon seit langer Zeit für alle Smartphone-Nutzer zur Verfügung und fristet trotz der umfangreichen Möglichkeiten eher ein Nischen-Dasein. Das will man nun durch eine breite Verfügbarkeit ändern und bringt die Augen des Google Assistant nach und nach auf immer mehr Geräte. In den letzten Wochen gab es große Schritte, die den Nutzerkreis potenziell stark vergrößern können - auch auf dem Desktop.
Mit Google Lens lassen sich schon seit vielen Jahren beliebige Bilder analysieren und nach Objekten sowie Text durchsuchen, die für weitere Zwecke verwendet werden können. Jetzt sind die Augen des Google Assistant bereit für ihren großen Auftritt und werden nicht nur für Tablets optimiert, sondern werden zum festen Bestandteil von Google Chrome. Der Rollout hat bereits begonnen.
Die Augen des Google Assistant, Google Lens, haben in der letzten Zeit mehrere große Updates erhalten und haben als erweiterter Arm der Websuche eine immer größere Bedeutung. Jetzt steht das nächste Update vor der Tür, das bereits für alle Beta-Nutzer ausgerollt wird und eine für Tablets optimierte Oberfläche im Gepäck hat. Dafür laufen einige aktuelle Entwicklungen zusammen, von denen auch die Nutzer der Bildanalyse profitieren können.
Nach Jahren der Eigenständigkeit wurde erst vor wenigen Tagen das neue Google Lens Multisearch angekündigt, mit dem die smarten Augen des Google Assistant in die Websuche integriert werden sollen. Konkret geht es um die Kombination aus Bild und Text, die nun erstmals in dieser Form möglich sein wird. In einigen Beispielen zeigt sich nun, wofür man so etwas benötigen könnte.
Die Augen des Google Assistant, Google Lens wurden schon vor längerer Zeit in den Chrome-Browser integriert und bieten die Möglichkeit, beliebige Bilder zur Auswertung an die Plattform weiterzureichen. Jetzt wird ein Update ausgerollt, das den Funktionsumfang der Ergebnisseite deutlich erhöht und den auf Bildern erkannten Text für zusätzliche Zwecke verwenden kann. So, wie man das bisher vom Smartphone kennt.
Nach mehreren Jahren der Eigenständigkeit wurde vor wenigen Tagen das neue Google Lens Multisearch angekündigt, mit dem die smarten Augen des Google Assistant in die Websuche integriert werden. Konkret geht es um die Kombination aus Bild und Text, die nun erstmals in dieser Form möglich sein wird. In einigen Beispielen zeigt sich nun, wofür man so etwas benötigen könnte.
Ein großer Schritt für Google Lens. Die 'Augen des Google Assistant' liefern schon seit Jahren sehr starke Ergebnisse und bekommen nun endlich ihren großen Auftritt: Google hat das neue Multisearch angekündigt, mit dem sich die visuelle Suche und die klassische Textsuche unter einem Dach vereinen. Das soll vor allem bei der wichtigen Suche nach Produkten helfen.
Mit Google Lens ist es sehr leicht möglich, Bilder zu analysieren und nach erkannten Objekten, Texten oder anderen Details zu durchsuchen. Während sich die App in den ersten Jahren auf das Livebild konzentriert hat, rückte der Fokus in jüngster Zeit verstärkt auf die lokal bereits gespeicherten Bilder und jetzt wird auch dieser Bereich weiter verbessert.
Mit Google Fotos erhalten die Nutzer nicht nur einen Cloudspeicher, sondern auch eine starke Bilderkennung, die sowohl Objekte als auch Gesichter und Texte auf den Bildern identifizieren kann. Jetzt wird eine neue schwebende Menüleiste getestet, die eine sofortige und direkte Interaktion mit dem abgebildeten Text ermöglicht. Endlich ein Ausbau der OCR-Funktionalität von Google Fotos.
Die Bilderkennung von Google Lens ist ein sehr mächtiges Tool und soll laut aktuellen Leaks schon bald im Web nutzbar sein. Bis es soweit ist, könnten möglicherweise noch einige Monate vergehen, doch darauf müsst ihr gar nicht warten. Mit Bordmitteln der Google Bildersuche lässt sich die bisher bekannte Lens-Funktionalität schon seit sehr langer Zeit nutzen. Wir zeigen euch, wie das funktioniert.
Das Team von Google Lens arbeitet offenbar daran, die Reichweite des Produkts auszubauen und integriert die 'Augen des Google Assistant' zu diesem Zweck in weitere Produkte. Nach der kürzlich aufgetauchten ersten Umsetzung für die Google Bildersuche wurde nun eine Integration in den Google Übersetzer angekündigt. Dieser soll noch mehr Möglichkeiten für Text in Bildern erhalten.
Die Plattform Google Lens gilt nach wie vor als "Augen des Google Assistant", ist aber eigentlich schon darüber hinaus gewachsen und soll sich auch in anderen Produkten verbreiten. Bei den ersten Nutzern ist die intelligente Objekterkennung nun direkt in der Google Bildersuche aufgetaucht und ermöglicht dort die Analyse beliebiger Bilder. Ein baldiger Rollout scheint wahrscheinlich.
Viele Menschen und Unternehmen versuchen sich am papierlosen Büro, doch aus verschiedensten Gründen ist das gar nicht so einfach. Auf der technischen Seite gibt es viele Lösungen, wobei auch Google immer mehr Apps und Funktionen anbietet, um Dokumente zu digitalisieren, zu sichern und natürlich auch zu analysieren. In diesem Artikel stellen wir euch vier Google-Produkte vor, mit denen sich Dokumente digitalisieren oder aufbewahren lassen.