Google Glass: Software-Update verbessert Fotoqualität deutlich

glass 

Eine der Hauptfunktionen von Google Glass dürfte es wohl sein, Fotos und Videos mit der Brille aufzunehmen und diese mit anderen zu teilen. In den nächsten Tagen rollt Google ein erstes Software-Update für Glass-Besitzer aus, das die Bildqualität der aufgenommenen Fotos deutlich verbessert.


Das erste große Update für die Datenbrille verbessert die Qualität der aufgenommenen Fotos der integrierten Kamera deutlich: Die Fotos sind schärfer und wirken realistischer als die ohne den eingebauten Software-Trick, welcher mit einem Klick auf den Kamera-Button mehrere Fotos aufnimmt und diese zu einem „perfekten“ Bild kombiniert. Dies geschieht in solch einer Geschwindigkeit, dass es auch bei sich bewegenden Objekten nicht zu Unschärfe kommt.

Außerdem erkennt die Brille nun auch dunkle Umgebungen und nimmt das nächste Foto automatisch mit einer helleren Belichtung auf. Laut Google muss sich nun niemand mehr um perfekte Fotos in dunklen Räumen oder bei Nacht sorgen – die Software erledigt dies für den Nutzer. Einen Blitz besitzt die Brille nämlich nicht – und würde bei Dunkelheit wohl auch nur wenig nützen.

Vergleichsfotos: Vorher – Nachher
Google Glass - Vorher

Google Glass - Nachher

Außerdem hat Google an der Funktion zur Beschreibung von Fotos gearbeitet: Um ein Bild zu beschreiben genügt es nun, sich das Foto anzusehen und die gewünschte Beschreibung einfach per Sprache mitzuteilen. Das gesagte wird dann automatisch als Beschriftungstext für das Foto gewählt und in den EXIF-Daten des Fotos gespeichert.

Für den nächsten Monat verspricht Google weitere Updates, verrät aber nicht um welchen Bereich es geht.

» Ankündigung bei Google+
» Galerie mit Vergleichsfotos



Teile diesen Artikel:

comment ommentare zur “Google Glass: Software-Update verbessert Fotoqualität deutlich

  • Welches der beiden Fotos ist den das Nacherfoto?
    Ich kann ehrlich gesagt keinen großen Unterschied erkennen, außer das bei dem 2. Foto die Sonne etwas tiefer steht und dadurch die Wellen nicht so stark spiegeln und etwas überblendet sind

    • Die Tatsache, dass man erkennen kann auf welchem Foto die Sonne anders steht sollte die Frage wohl schon beantworten. Den Schärfeunterschied sollte man meiner Meinung nach auch auf dem schlechtesten Bildschirm deutlich erkennen können.

    • Die Sonne steht wahrscheinlich gar nicht tiefer. Das 2. Bild ist nur besser belichtet, der Himmel überstrahlt nicht, man kann mehr Details erkennen. Falls dir der Begriff HDR nichts sagt, mach dich doch mal darüber schlau. Das scheint mir hier angewendet worden zu sein. Die Beschreibung „mehrere Einzelaufnahmen kombinieren“ würde das bestätigen.

    • Achte mal vor allem auf den Hintergrund bzw. die Wolken. Dann siehst du den Unterschied mehr als deutlich.

Kommentare sind geschlossen.