GoogleWatchBlog

Google geht Gender-Ärger aus dem Weg: Bilderkennung erkennt keine Geschlechter mehr – hält es für unmöglich

» Web-Version «

Die modernen Gender-Regeln sind längst in der digitalen Welt angekommen und haben auch Auswirkungen auf einige Google-Produkte. So war beispielsweise Googles Emoji-Designern die treibende Kraft hinter den gender-neutralen Emojis und auch in puncto Bilderkennung hat es nun Auswirkungen. Google hat angekündigt, dass die eigene Cloud Vision API ab sofort keine Geschlechter mehr spezifizieren wird. Bei Google Fotos hingegen funktioniert es noch Bestens.


In der Natur gibt es bei den allermeisten Lebewesen nur zwei Geschlechter, diesen Fakt kann niemand abstreiten. Allerdings zählen nicht immer die körperlichen Merkmale, sondern das innere Befinden – und da kann es dann kompliziert werden. Das war zwar wohl ebenfalls schon immer so, konnte aber nicht ausgesprochen werden. Heute ist es dank political correctness genau anders herum und wir haben mehr als ein Dutzend verschiedener Geschlechter.

Google bietet schon seit langer Zeit die Cloud Vision API an, mit der sich Objekte und Subjekte auf Bildern erkennen, markieren und recht umfangreich beschreiben lassen. So wie auf folgendem Screenshot zu sehen, liefert die API eine Reihe von wichtigen Objekten und auch Personen zurück, die sich auf dem Bild befinden und bringt somit die starke Bilderkennung – die unter anderem von Google Fotos bekannt ist – in viele weitere Apps und Plattformen.

Bis vor wenigen Tagen lieferte diese Bilderkennung die Information zurück, ob es sich bei der Person auf dem Bild um einen Mann oder eine Frau handelt – mit einer Trefferquote von gut 99 Prozent. Problematisch wird es aber offenbar dann, wenn eine Person aufgrund diverser Merkmale falsch eingestuft wird. Diesem Problem will Google nun aus dem Weg gehen und hat die Erkennung der Geschlechter komplett eingestellt. Stattdessen ist jetzt nur noch von Personen die Rede.

Wer mehr Details möchte, der muss entweder auf andere Anbieter ausweichen oder die bei Google gehostete Künstliche Intelligenz selbst mit entsprechenden Werten und Mustern trainieren. Die Erkennung ist rein theoretisch also weiterhin möglich, nur will Google selbst wohl keine Verantwortung darüber übernehmen, welche Ergebnisse schlussendlich gemeldet werden.



Laut Googles Statement ist es UNMÖGLICH, Personen aufgrund ihres Aussehens oder der Umgebung zu 100 Prozent einem Geschlecht zuzuordnen. Dabei geht es aber nicht nur um die oben bereits erwähnte innere Einstellung, sondern auch die alten Geschlechterrollen. Ist eine Person am Herd automatisch eine Frau? Ist eine Person, die ein Auto repariert, automatisch ein Mann? Genau solche Signale hat die Künstliche Intelligenz in der Vergangenheit ebenfalls zur Einstufung ausgewertet. Das ist einfach ein Teil der Mustererkennung basierend auf Hunderttausenden oder Millionen Fotos.

Fraglich natürlich, warum die political correctness, die Google übrigens offiziell als Grund für diese Entscheidung ausschließt, eine solch große Rolle spielt. Ohne jemandem auf den Schlips treten zu wollen muss man sagen, dass auch ein Mensch nicht zu 100 Prozent eine Person als Mann oder Frau zuordnen kann – und das kann viele kleine Gründe haben. Dennoch dürften wir in 99 Prozent der Fälle wohl richtig liegen – und wenn die Algorithmen das auch schaffen, muss es doch reichen.

Das erinnert übrigens an den Vorfall vor einigen Jahren, in dem Google Fotos dunkelhäutige Menschen als Gorillas erkannt hat – was damals einen regelrechten Skandal auslöste. Interessanterweise funktioniert die Geschlechtererkennung in Google Fotos noch problemlos. Gebt nur „mal“, „woman“, „boy“ oder „girl“ ein – in allen Fällen (zumindest bei mir) kamen die passenden Fotos.

Google Fotos: Versteckte Videobearbeitung – So lassen sich die Filme des Assistenten umfangreich anpassen

[Business Insider]


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | Jetzt den GoogleWatchBlog-Newsletter abonnieren