Gemini Live: Startschuss für den visuellen Assistenten – Google testet Smart Glasses mit Smartphone-Nutzern

Google hat schon vor einigen Monaten den breiten Einstieg in den Markt der Smart Glasses angekündigt, mit denen man eine ganz neue Produktkategorie etablieren will, die vor allem von einem Produkt angetrieben werden soll: Gemini. Dass der Weg dahin nicht mehr weit ist, zeigt sich in diesen Tagen bei Gemini Live, denn die Plattform bietet mittlerweile alle notwendigen Funktionen auch auf dem Smartphone.

Der erste Anlauf Googles auf den Markt der smarten Brillen liegt schon über ein Jahrzehnt zurück und ist durch den damaligen Flop von Google Glass bis heute vielen Menschen bekannt. In der Zwischenzeit gab es nur einige wenige Entwicklungen mit zögerlichen Ankündigungen, doch in diesem Jahr will man erneut ganz groß angreifen – und das auf mehreren Ebenen gleichzeitig. Es geht um nichts weniger als die Verknüpfung von VR und AR zu XR, die Etablierung eines neuen Betriebssystems, die Integration von Android und Gemini sowie die Zusammenlegung von Smart Glasses und VR-Brillen. Ein Monsterpaket.
Wir haben euch bereits Googles neue Smart Glasses-Pläne vorgestellt und dabei auch die geplanten Benutzeroberflächen von „Project Astra“ sowie die ersten Bilder der kommenden Brillen gezeigt. Gemini ist der gemeinsame Nenner und soll den Nutzern ständig zur Verfügung stehen, sowohl per Audio als auch Video. Das Sichtfeld des Nutzers soll dabei ständig für Gemini freigegeben werden und es dem KI-Bot ermöglichen, mit dem Nutzer praktisch in der realen Welt zu interagieren.
Google hat schon im Mai letzten Jahres auf der Entwicklerkonferenz Google I/O eine erste Demo gezeigt, die durchaus zu beeindrucken wusste. Das erinnerte sehr stark an Google Glass, nur mit dem feinen Unterschied, dass sich die Technologie in den elf Jahren dazwischen rasant weiterentwickelt hat. Alles im Video gezeigte ist heute möglich, während es damals mehr Wunschdenken als eine echte Produktvorführung gewesen ist.
Gemini Live ist Project Astra
Im obigen Video seht ihr die Demonstration von Project Astra. Noch mehr Videos und Konzepte findet ihr in diesem Artikel. Die Nutzung basiert vor allem darauf, dass der KI-Bot dasselbe sieht wie der Nutzer und entsprechend darauf reagieren kann. Das ist eine beeindruckende Fähigkeit, die mittlerweie keine Zukunftsmusik mehr ist, sondern technisch umsetzbar ist – das hat Google in den letzten Tagen erneut bewiesen.
Denn mit den neuen Videofähigkeiten von Gemini Live hat man genau das gezeigt. Denn die Nutzer können Gemini Live nicht nur mit einem Video füttern, sondern auch ihre Displayoberfläche freigeben und während der Smartphone-Interaktion mit dem KI-Bot über das Gesehene philosophieren. Ob nun das Display mit allen erdenklichen Inhalten freigegeben wird oder das Kamerabild der smarten Brille, macht dabei keinen großen Unterschied mehr. Die Technologie ist also bereits vorhanden und in den Händen der Nutzer.
Ohne es konkret anzukündigen, testet Google mit der gesamten Gemini-Nutzerschaft diese Smart Glasses-Funktionen, um diese nicht erneut bei den frühen Nutzern reifen lassen zu müssen, sondern in wenigen Monaten marktreif starten zu können.
Letzte Aktualisierung am 2025-03-01 / Bilder von der Amazon Product Advertising API / Affiliate Links, vielen Dank für eure Unterstützung!
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog-Newsletter