Pixel Kamera: Google setzt jetzt voll auf KI-Fotos – die Realität hat nicht mehr die größte Priorität (Interview)

Viele Nutzer blicken bei der Ankündigung eines neuen Pixel-Smartphones auf die Pixel Kamera, die Jahr für Jahr neue Tricks lernt und mit jeder neuen Generation nachlegt. Diese tragende Rolle wird die App sicherlich auch weiterhin spielen, doch ab diesem Jahr soll sich vor allem bei der KI-Unterstützung etwas ändern. Tatsächlich ist das Einfangen der Realität nicht mehr von höchster Bedeutung, sondern nur noch zweitrangig.

Wer auf den Auslöser der Kamera drückt, hat natürlich die Erwartungshaltung, dass die vor der Linse befindliche Szenerie festgehalten wird – und das möglichst realistisch. Das gilt seit der Erfindung der Kamera und im digitalen Zeitalter ist die Qualität der Aufnahmen immer weiter angestiegen – sei es durch verbesserte Kamerasensoren oder der heutigen modernen KI-Nachbearbeitung. Die Pixel-Smartphones setzen seit jeher auf eine schnelle Nachbearbeitung, die in einem Bild resultiert, das über die Möglichkeiten der Hardware hinausgeht.
Bei der gebotenen Qualität wird es mit Sicherheit auch bleiben, doch tatsächlich kann man sich heute selbst bei der Kamera nicht mehr ganz sicher sein, dass wirklich das auf dem Foto landet, was man selbst gesehen hat. Unvergessen bleibt der damalige Mond-Austausch bei Samsung-Smartphones. Genau so etwas will Google mit den Pixel-Smartphones im großen Stil umsetzen. Es soll nicht mehr unbedingt das wahre Geschehen festhalten werden, sondern die Szenerien in der Form, wie es der Nutzer in Erinnerung hat.
Die Herausforderung ist es, dass sich der Mensch nur die Szenerie selbst im Gedächtnis behält, während am Foto auf Details geachtet wird, die während des Fotografierens nicht bewusst wahrgenommen werden.
You started to see a shift from image processing to image creation, image generation. It’s a shift from, ‘Let’s make images less noisy and sharper to let’s recreate your memories’ because your memories are different from reality, and that’s okay. That’s a perception and human thing. Let’s build for humans.
Your memories are your reality. What’s more real than your memory of it? If I showed you a photo that didn’t match your memory, you’d say it wasn’t real.
Die Erinnerungen und auch die Wahrnehmung können sich von der Realität unterscheiden, das ist bekannt. Daher hat auch Googles Kamera-Team einen Wandel eingeleitet, bei dem es nicht mehr unbedingt darum geht, ein 1:1-Abbild zu schaffen. Es entstehen Bilder, die es in dieser exakten Form in der Realität nicht gegeben hat, wie sie aber in den Köpfen der Nutzer geblieben sind. Als Beispiel nennt man den Bokeh-Effekt rund um die Portrait-Fotos oder auch Best Shot, bei dem aus mehreren Aufnahmen ein einziges Bild entsteht, auf dem alle Personen die Augen geöffnet haben und möglichst freundlich in die Kamera blicken.
If you’re just focused on the things that were solvable in hardware 50 years ago, you’re not going to build the next innovation. We have a long roadmap of camera features we’re considering for future Pixel devices
Aber nicht nur die Optimierung des Motivs spielt eine Rolle, sondern auch die automatische Nachbearbeitung des gesamten Fotos. So dürften etwa viele Nutzer Tools wie den magischen Editor verwenden, um den Mülleimer neben dem Gruppenfoto zu entfernen – der Klassiker. Schon bald könnte es dann so sein, dass der Mülleimer automatisch vom Foto verschwindet, als wenn er niemals dort gewesen wäre. Das würden viele Nutzer begrüßen, andererseits kann man sich dann aber auch nicht mehr sicher sein, das Motiv geliefert zu bekommen, dass man mit eigenen Augen gesehen hat.
Die Frage ist, ob wir das überhaupt wollen oder von einer Kamera nicht doch eher erwartet wird, dass sie die Realität einfangen soll…
Letzte Aktualisierung am 2025-05-03 / Bilder von der Amazon Product Advertising API / Affiliate Links, vielen Dank für eure Unterstützung! Als Amazon-Partner verdiene ich an qualifizierten Verkäufen.
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog-Newsletter