GoogleWatchBlog

PlaNet: Google-Forscher entwickeln neurales Netzwerk, das den Aufnahmeort von Fotos bestimmen kann

» Web-Version «

Im Bereich der Fotoerkennung hat Google in den letzten Jahren enorme Fortschritte gemacht und kann mittlerweile sehr viele verschiedene Dinge, Personen und auch Szenen erkennen – wovon sich jeder selbst mit Google Photos überzeugen kann. Ein Team von Forschern hat sich nun aber eine sehr viel schwierigere Aufgabe gesetzt, mit der in den meisten Fällen auch ein Mensch überfordert ist: Die Erkennung des Standorts, an dem das Foto geschossen wurde – und das ohne Geo-Daten.


Die meisten Fotos im Netz sind mittlerweile mit Geo-Daten versehen, die vom Smartphone oder der Digitalkamera automatisch in den Meta-Daten speichert, und die dann wiederum von den diversen Online-Tools ausgewertet werden. Doch wenn diese Daten nicht zur Verfügung stehen, kann es in vielen Fällen auch für den Menschen sehr schwer werden, diese Fotos wieder zuzuordnen. Ein von Google-Forschern entwickeltes neurales Netzwerk soll dieses Kunststück nun vollautomatisch schaffen und konnte bereits sehr gute Achtungserfolge erzielen.

Innerhalb von Google gibt es eine Forschungsabteilung für „maschinelles Sehen“, die sich mit der Erkennung von Fotos beschäftigt. Diese hat nun ein neurales Netzwerk entwickelt, dass rein anhand eines Fotos erkennen soll, wo dieses aufgenommen wurde. Dazu wurde das System mit 91 Millionen Fotos gefüttert, die mit Geodaten versehen waren, so dass es die Welt und deren Gegebenheiten kennen lernen konnte. Zusätzlich hat man die gesamte Erde in 26.000 Quadrate eingeteilt, denen die einzelnen Fotos zugeordnet worden sind. In Gebieten mit vielen verfügbaren Fotos wurden diese Gebiete noch engmaschiger, in Gebieten mit sehr wenigen Fotos (Arktis, Zentralafrika) gibt es hingegen kaum Quadrate.

Nachdem das neurale Netzwerk mit den Daten gefüttert wurde, hat man diesem einen Testlauf unterzogen. Es wurde mit insgesamt 2,3 Millionen Fotos konfrontiert, die keinerlei Geo-Daten aufweisen und sollte diese dann zuordnen. Bei 3,6 Prozent aller Fotos konnte das Netzwerk diese straßengenau zuordnen, bei 10,1 Prozent wurde die richtige Stadt erkannt und bei fast jedem zweiten – 48 Prozent – wurde immerhin der richtige Kontinent getippt. Das ist um so mehr beeindruckender, als dass diese Werte deutlich über einem Menschen liegen – der Fotos und deren Hintergründe nicht so genau zuordnen kann.



Im Durchschnitt lag das von den Forschern auf die Bezeichnung „PlaNet“ getaufte Tool 1.131 Kilometer daneben. Menschen liegen im Durchschnitt ganze 2.320 Kilometer daneben, und liegen damit mehr als doppelt so hoch wie das Tool. Zwar hat der Mensch keine 91 Millionen „Vergleichsbilder“, doch auch die Intelligenz und die völlig andere Herangehensweise des Menschen konnte hier nicht punkten.

In Zukunft könnte diese Technologie etwa auch bei Google Photos zum Einsatz kommen, um ganze Alben ohne Geo-Informationen wieder mit den richtigen Daten zu versorgen. Wenn gleich mehrere Fotos zur Verfügung stehen steigt natürlich auch die Wahrscheinlichkeit der korrekten Erkennung.

Wer sich einmal selbst ausprobieren möchte, ob er den Wert des Netzwerks schlagen kann, kann das GeoGuessr-Spiel auch online spielen – und einfach das eingeblendete Foto auf der Weltkarte zuordnen. Dass das gar nicht so einfach ist, wird man schon bei den ersten Fotos merken.

» GeoGuessr

[heise]


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | Jetzt den GoogleWatchBlog-Newsletter abonnieren