Teachable Machines: Neues kurzweiliges Google-Experiment erklärt Künstliche Intelligenz [Video]

google 

Dass Google in der Erkennung von Bildern und Videos sehr gut ist, hat man schon sehr oft bewiesen und setzt einige Technologien auch bereits in bestehenden Produkten ein. Dabei kommt heutzutage häufig die Künstliche Intelligenz zum Einsatz, die sich vollautomatisch trainiert und so zu immer besseren Leistungen fähig ist. Ein neues Browser-Experiment zeigt nun sehr anschaulich und einfach, wie gut das mittlerweile funktioniert.


Die Erkennung von Objekten, Personen oder anderen Dingen auf Fotos oder auch in Videos ist längst keine Hexerei mehr und gehört in einigen Produkten wie etwa der Bildersuche oder auch der Fotoverwaltung von Google Photos zum Standard und wird mit Google Lens auch bald den Einzug auf alle Smartphones und in den Alltag der Nutzer finden. Die Erkennung von Bewegungen und Mustern hingegen ist schon deutlich schwerer und ist ein perfektes Einsatzgebiet für Künstliche Intelligenzen.

teachable machine

Mit dem Browser-Experiment Teachable Machine zeigt Google nun auf sehr simple Art und Weise, wie eine solche Erkennung mit integrierter Künstlicher Intelligenz funktioniert. Dazu hat man einen simplen Versuchsaufbau erstellt, bei dem auf die Kamera des Nutzers zugegriffen wird. Über Bewegungen oder das Zeigen von Gegenständen kann man die Algorithmen trainieren und sie die Bilder vollautomatisch analysieren lassen. Dazu stehen gleich drei Instanzen gleichzeitig zur Verfügung.

Der Nutzer kann die drei Instanzen jeweils auf ein Muster trainieren und dann gleichzeitig scharf schalten. Schlägt eine Intelligenz dann an und erkennt das ihr zugewiesene Muster, kann eine der drei Ausgabefunktionen ausgeführt werden. Entweder wird ein GIF angezeigt, ein Sound abgespielt oder es wird sogar per Sprache geantwortet. Jede der drei virtuellen Maschinen kann auf etwas anderes trainiert werden und erkennt dann automatisch, ob sie selbst an der Reihe ist.

Es können Gegenstände in die Kamera gehalten werden, es können Aktionen mit der Hand ausgeführt werden, wie etwa das Winken oder eine bestimmte Handposition. Zu sehen ist das in folgendem Video.



Hat man die Intelligenzen dann erst einmal trainiert, zeigt ein zusätzlicher Balken über dem Button an, wie sicher sich die Maschine mittlerweile bei den Erkennungen ist. Wenn das noch nicht sicher funktioniert, dann muss man die Intelligenz noch weiter trainieren und wieder die Gegenstände in die Kamera halten bzw. die Aktion ausführen. Dadurch kann man etwa ein Gefühl dafür bekommen, wie eine solche Intelligenz funktioniert und warum Google für viele Dinge auf Millionen von Inhalten und Trainingseinheiten setzt.

Das ganze ist nun extrem simpel dargestellt, aber ich denke es zeigt schon sehr gut wie so etwas funktioniert. Außerdem zeigt es, wie schon angesprochen, warum immer die Rede davon ist „je mehr man es nutzt, desto besser wird es“ – was Google immer wieder für Photos und auch den Assistant versprochen hat und auch für Lens in Aussicht stellt.

Ergebnisse solch simpler Experimente hat man in den letzten Monaten schon mit Auto Draw und Quick Draw gezeigt, die jeweils von den Nutzern trainiert wurden, ohne dass sie es überhaupt wussten. Am Ende ist so schon eine schöne Datenbank von Objekten entstanden, die man so leicht wohl nicht ohne großen (finanziellen) Aufwand bekommen hätte.

» Teachable Machines

[The Verge]




Teile diesen Artikel:

Facebook twitter Pocket Pocket