Google Fotos: Automatische Standortermittlung wird wohl deutlich schlechter – starkes Feature eingestellt

photos 

Nutzer von Google Fotos profitieren von den starken Algorithmen hinter der Plattform, die jedes hochgeladene Bild analysieren, kategorisieren und dadurch sowohl eine automatische Zuordnung als auch starke Suchfunktion bieten können. Doch leider geht in diesen Tagen eine wichtige Information verloren, denn die Aufnahmeorterkennung wird eingeschränkt und kann somit nicht mehr zuverlässig funktionieren.


google fotos logo

Google Fotos ist sehr gut darin, die von den Nutzern hochgeladenen Fotos und Videos zu analysieren und kategorisieren. Ein wichtiger Teil davon ist die Erkennung des Standorts, an dem das jeweilige Foto entstanden ist. Dies wird für die Suchfunktion genutzt, für die Detailansicht und auch für die Kartenansicht. Das wird auch in Zukunft der Fall sein, doch leider wird diese Funktion jetzt deutlich schlechter werden, denn man schränkt die Möglichkeiten stark ein.

Statt wie bisher den Standortverlauf des Nutzers anzuzapfen und aus der Verknüpfung der Zeitpunkte herauszufinden, wo sich der Nutzer beim Drücken auf den Auslöser befunden hat, nutzt man jetzt nur noch eine Bilderkennungsfunktion. Natürlich war die Kombination aus Standortverlauf und Fotostandort nicht perfekt und war fehleranfällig, aber in vielen Fällen hat es auch sehr gut funktioniert und konnte dafür sorgen, dass die Bilder korrekt zugeordnet wurden.

Das größte Problem waren eher die Bilder, die nichts mit dem Standort zu tun haben. Etwa empfangene Bilder, Screenshots oder auch gescannte Bilder. In allen Fällen ist normalerweise kein Standort gespeichert und kann auch nicht sinnvoll aus dem Standortverlauf herausgelesen werden. Es führte also dazu, dass falsche Angaben gespeichert wurden. Jetzt kann man sich überlegen, ob massenhaft Bilder ohne Standort oder wenige mit falschem Standort die bessere Wahl sind.




Neue Standorterkennung setzt auf KI und Bildanalyse
Doch man streicht die Funktion ja nicht komplett, sondern legt lediglich einen anderen Schwerpunkt. Schon seit jeher werden nicht nur die Daten aus dem Standortverlauf verwendet, sondern auch die von den Algorithmen erkannten Objekte auf dem Bild – doch Erstes hatte Priorität. Jetzt gibt es nur noch zweites und man will nach eigenen Angaben stark darin investieren, dies auszubauen. Aber man kann noch so viel investieren – dem System sind starke Grenzen gesetzt.

Natürlich hat man eine hohe Chance, wenn man sich direkt vor dem Eiffelturm fotografiert. Aber wie oft ist das der Fall? Bei den allermeisten Fotos spielt der Hintergrund keine Rolle oder ist im Portrait Modus soweit unscharf gehalten, dass sich das kaum sinnvoll analysieren lässt. Wer sich also nicht gerade vor einer Sehenswürdigkeit oder einem Straßenschild fotografieren lässt, kann keine guten Ergebnisse erwarten. Ein Abgleich mit Streetview-Bildern würde sich natürlich anbieten, aber wie zuverlässig das funktionieren kann, sei mal dahingestellt.

Ein großer Teil der Bilder dürfte außerdem ohne wichtigen Hintergrund entstehen oder in Innenräumen entstehen. Bei all denen ist es nicht möglich, den Standort daraus abzulesen. Vielleicht übersehe ich etwas, aber die von Google Fotos jetzt in den Mittelpunkt gestellte Funktion dürfte damit nur in Ausnahmefällen gute Ergebnisse liefern. Bleibt die große Frage, warum man diese Änderung überhaupt vornimmt.

» Google Fotos: Praktische Funktion wurde eingestellt – Foto-Ort wird nicht mehr aus Standortverlauf ermittelt

[Google Support]


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog Newsletter abonnieren


Teile diesen Artikel:

Facebook twitter Pocket Pocket