Mit Google Lens lassen sich Millionen von Objekten sehr einfach erkennen, in dem die Smartphone-Kamera darauf gerichtet und das Bild analysiert wird. Vor wenigen Tagen hat Google eine Erweiterung dieses Funktionsumfangs angekündigt, bei der man sich im Bereich des fast-unmöglichen bewegt und noch dazu große Verantwortung hat: Man möchte die Handschrift von Ärzten entziffern.
Einige Jahre lang war der Google Assistant nicht nur ein sehr zentrales Produkt im Google-Netzwerk, sondern auch sehr bedeutsam bei der Weiterentwicklung zahlreicher Funktionen. In letzter Zeit hat sich das allerdings spürbar geändert und sowohl die Weiterentwicklung als auch die Integrationen wurden zurückgefahren. Geht das soweit, dass der Google Assistant sprichwörtlich in der Versenkung verschwindet?
Mit den smarten Augen von Google Lens lassen sich zahlreiche Objekte, Gebäude, Orte und andere Dinge auf Fotos erkennen, die vom Google Assistant-Ableger analysiert und anschließend mit weiteren Informationen aufgelistet werden. Diese Funktion sollte vielen Nutzern bekannt sein, aber es gibt noch viele weitere praktische Features, die vielleicht nicht jeder kennt: Heute zeigen wir euch, wie ihr einen abfotografierten Text sehr schnell auf den Computer kopieren könnt.
Die Bildanalyse von Google Lens ist schon seit langer Zeit ein fester Bestandteil von Google Fotos und gibt allen Nutzern die Möglichkeit, auf dem Foto abgebildete Personen oder Objekte zu analysieren. Jetzt gibt es eine größere Veränderung, denn man bringt einen Zwischenschritt sowie eine Kombination mit der Gesichtersuche von Google Fotos.
Google-Nutzer können zwei verschiedene Apps zur visuellen Übersetzung verwenden, die sich im Laufe der Zeit immer ähnlicher geworden sind: Einmal die Kamera-Übersetzung von Google Translate und einmal die Text-Übersetzung von Google Lens. Jetzt hat man diese doppelte Funktionalität bemerkt und legt beide Produkte zusammen. Im Hintergrund spielen beide aber natürlich weiterhin zusammen.
Mit Google Lens ist vor einigen Jahren ein sehr starkes Produkt gestartet, das trotz seiner Fähigkeiten oftmals unter dem Radar fliegt und mit etwas Aufmerksamkeit sicherlich schon weiter sein könnte. Das soll sich ändern, denn in den letzten Wochen wurde die Plattform nicht nur funktionell, verbessert, sondern soll auch einen Verbreitungsschub erhalten. Richten soll es die Google Websuche.
Mit Google Lens ist vor einigen Jahren ein sehr starkes Produkt gestartet, das trotz seiner Fähigkeiten oftmals unter dem Radar fliegt und mit etwas Aufmerksamkeit sicherlich schon weiter sein könnte. Das soll sich ändern, denn in den letzten Wochen wurde die Plattform nicht nur funktionell, verbessert, sondern soll auch einen Verbreitungsschub erhalten. Richten soll es die Google Websuche.
Rund um den Google Assistant ist in den letzten Monaten gefühlt sehr ruhig geworden, denn das sehr zentral positionierte Produkt wurde bei großen Update-Runden einfach vergessen. Aber damit ist es wohl vorbei, denn allein in den letzten Tagen gab es vier größere Änderungen, die auf einen neuen Schwung Assistant-Features hoffen lassen. Das könnte auch mit Googles kommendem Smart Home-Anlauf zu tun haben.
Nach mehreren Jahren in der gefühlten Nische erhält Google Lens jetzt endlich den großen Auftritt und vielleicht die Aufmerksamkeit, die die smarten Augen des Google Assistant benötigen: Ab sofort ist die Verknüpfung zu Lens direkt im Suchfeld der Google-Startseite zu finden und sticht dort mit seinem farbenfrohen Logo hervor. Diese Integration hat sich schon vor Monaten abgezeichnet.
Mit der starken Android-App von Google Lens lassen sich nicht nur Bilder analysieren und nach unzähligen Dingen durchsuchen, sondern es lassen sich auch Texte erkennen und direkt im Originalbild übersetzen. Der übersetzte Text wird über das Originalbild gelegt und gleichzeitig der Text in Quellsprache ausgeblendet. Jetzt hat man ein größeres Update angekündigt, das die Qualität dieser Darstellung verbessern soll.
Mit Google Lens lassen sich sehr leicht Bilder und dessen Inhalte analysieren und weitere Informationen erhalten - aber das hat seine Grenzen. In einigen Fällen kann die gute alte Google Bildersuche das bessere Tool zur Bildanalyse sein, denn es kann im Optimalfall mehr Kontext liefern. Das hat man auch im Lens-Team bemerkt und integriert nun eine Verknüpfung zur Bildersuche in die Android-App.
In der App Google Lens werden viele Möglichkeiten zur Bilderkennung gebündelt, die das Erfassen von Texten, Objekten, Lebewesen, Mathematik-Aufgaben und mehr ermöglicht. Die Oberfläche der App wurde bereits mehrfach umgebaut und jetzt gibt es eine weitere Anpassung, mit der der gewünschte Filter mit nur einem Tap festgelegt und auf das Kamerabild angewendet werden kann.
Über mehrere Jahre ließ sich Google Lens nur auf dem Smartphone verwenden und stand auch dort zu Beginn nur sehr begrenzt zur Verfügung. Das hat sich geändert und mittlerweile drängen die 'Augen des Google Assistant' immer weiter in den Desktopbrowser - zuletzt als fester Bestandteil der Bildersuche. Diese Integration kann sehr praktisch sein, um schnell Texte in Bildern zu erkennen und verwenden.
Kürzlich gab es ein großes Update für Google Lens, das die Möglichkeit zur smarten Analyse von Fotos in den Webbrowser gebracht hat. Google Lens ist dadurch zu einem festen Bestandteil der Bildersuche geworden, hat allerdings ein anderes starkes Tool verdrängt, das jetzt gut versteckt ist, aber nach wie vor zur Verfügung steht. Wir zeigen euch, wie ihr die Rückwärtssuche der Bildersuche nutzen könnt.
Die Google Bildersuche gehört mit Abstand zu den ältesten Produkten des Unternehmens und bietet seit vielen Jahren eine Rückwärtssuche, die auf einem Bild statt Text basiert. Jetzt wurde diese Funktion vollständig gewandelt und durch Google Lens ersetzt, das damit erstmals in großem Stil im Web zur Verfügung steht. Das macht die Rückwärtssuche aber nicht unbedingt besser.