Künstliche Intelligenz: Hat Google als Infomaschine eine besondere Verantwortung? KI-Pionier warnt vor Gefahren

google 

Immer mehr Beobachter und (ehemalige) Beteiligte warnen vor der Gefahr der Künstlichen Intelligenz, zum Teil schon seit mehreren Jahren. Bisher wurden diese Warnungen kaum ernst genommen und eher spöttisch diskutiert, doch nun haben sich die Argumente ein wenig geändert – und bringen auch Google ins Spiel. Das Unternehmen bringt mit Bard gerade den eigenen KI-Großeinstieg ins Rollen und könnte die eigene Verantwortung ein wenig unterschätzen.


google bard logo

Es kann viele Beweggründe geben, wenn Menschen vor etwas warnen, das gilt auch im Fall der Künstlichen Intelligenz. Nicht alle Beobachter sind von den jüngsten Fortschritten im generativen Bereich und der recht schnellen Akzeptanz der ChatBots begeistert. Erst vor wenigen Tagen hatte der KI-Pionier und Ex-Googler Geoffrey Hinton vor KI gewarnt und scheint diese Warnung durchaus ernst zu meinen, ohne ein strategisches Interesse an der erneut angestoßenen Diskussion zu haben.

Die Gefahren der Künstlichen Intelligenz
Dazu muss man wissen, dass Hinton im Jahr 2012 den technischen Grundstein für generative KI gelegt hat, sein KI-Unternehmen für 44 Millionen Dollar an Google verkauft hat, diesen Posten vor wenigen Tagen verließ und mittlerweile 75 Jahre alt ist. Klingt nicht nach einem Menschen, der strategische Interesse mit seiner Warnung verfolgt. Er warnt auch nicht vor dystopischen Killermaschinen oder ähnlichen Fantasien, sondern vor einer ganz reellen und schon heute nachvollziehbaren Gefahr: Fake Facts.

Hinton warnt davor, dass das Internet mit Falschinformationen regelrecht überflutet wird, denn bisher haben sich die meisten ChatBots nicht unbedingt als faktentreu erwiesen. Das Problem ist, dass die Bots sich selbst mit Informationen aus unzähligen Quellen füttern und dabei auch Spekulationen als Fakten verkaufen, Gegebenheiten falsch verknüpfen oder einfach falsch interpretieren. Wenn diese ihre Aussagen dann als Fakten verkaufen, nutzen auch die ganzen Disclaimer nichts. Und wenn eine falsche Info erst einmal in der Welt ist, verbreitet sich diese weiter.




Viele Menschen dürften mittlerweile mindestens eine Person in der Familie / Freundeskreis haben, die gerne Fakten verdreht, Verschwörungstheorien aufstellt und diese als die einzige Wahrheit verkauft. Man kann sich dann mitreißen lassen oder die Aussagen ignorieren, oder anderweitig damit umgehen. Wenn allerdings eine von vielen Millionen Menschen genutzte KI falsche Fakten ausspuckt, hat das eine völlig andere Tragweite. Denn dann werden Fakes schnell zu Pseudo-Fakten und es bauen sich weitere Strukturen darauf auf. Genau das ist es, was Hinton mit einer Flut an Falschinformationen meint.

Google hat eine große Vertrauensbasis
Und jetzt kommt Google ins Spiel. Bisher gilt Bard nicht gerade als der weiseste der ChatBots und verbreitet viele falsche Fakten. Zwar mit Disclaimer, aber diesen dürfte viele Menschen schnell ignorieren. Denn Google hat sich über viele Jahre gemeinsam mit Wikipedia den Ruf erarbeitet, zuverlässige Fakten zu verbreiten. Zwar hat man das nie zu 100% für sich selbst in Anspruch genommen, aber diese Erwartungshaltung ist vorhanden.

Wenn Google dann 95 Prozent korrekte und 5 Prozent falsche Fakten ausspuckt, an dieser Stelle steht man nach eigenen Aussagen derzeit, ist das bei einer Basis von mehreren Milliarden Nutzern nicht ausreichend. Dem ist man sich selbst durchaus bewusst und hat viele KI-Funktionen daher über Jahre zurückgehalten. Man hatte immer wieder KI-Funktionen auf Events demonstriert, diese aber nur mit angezogener Handbremse und deutlich verschärft angeboten.

Googles eigene KI-Ethik-Abteilung hat immer wieder vor den KI-Gefahren gewarnt und selbst auf großer Bühne hatte man oft verlauten lassen, dass die KI zwar technisch, aber noch nicht gesellschaftlich für den Einsatz bereit ist. Es ist nicht anzunehmen, dass diese Sorgen plötzlich nicht mehr gelten, aber man wischt sie wohl beiseite und ignoriert die Warnungen der eigenen Experten und auch von Außen. Und damit verwässert man die gesamte über die Jahre aufgebaute Reputation in puncto KI-Verantwortlichkeit.

Aus wirtschaftlicher Sicht ist Googles Verhalten nachvollziehbar, denn man kann sich nicht die Butter vom Brot nehmen lassen und diese „Zukunfts-Technologie“ nicht für sich beanspruchen und in weiterer Folge die Websuche in Gefahr bringen. Über diese Zwickmühle, in der Google steckt, hatte ich erst vor einigen Tagen philosophiert.




Mittlerweile scheint man es so zu sehen, dass man diese Entwicklung selbst nicht aufhalten kann und sicherlich auch gar nicht will. Denn wenn man selbst keine starke KI an den Start bringt, dann wird es ein anderes Unternehmen tun. Und genau aus diesem Grund fordern viele Experten einen Entwicklungsstopp sowie umfangreiche öffentliche Regulierungen der KI. Einige fordern dies aus strategischen Gründen, andere tatsächlich aus der Sorge vor den kommenden Gefahren.

Geoffrey Hinton hat es schon richtig auf den Punkt gebracht: Die KI hat plötzlich einen riesigen Sprung gemacht, den er selbst erst in 20 bis 30 Jahren erwartet hätte. Es ist daher kaum absehbar, wie es in den nächsten Jahren weitergehen wird. Ich denke, dass auch die Unternehmen und Forscher selbst nicht mehr ganz so weit in die Zukunft blicken können, wie sie das bisher getan haben. Denn mittlerweile wird jede Innovation schon nach kurzer Zeit auf die Öffentlichkeit losgelassen.

Um nun zur Anfangsfrage zurück zu kommen, die sich natürlich nicht eindeutig beantworten lässt: Hat Google eine besondere Verantwortung bei der KI-Entwicklung? Aufgrund der über zweieinhalb Jahrzehnte erworbenen Reputation sicherlich schon. Denn während andere KIs als experimentell wahrgenommen werden, sind es bei Google andere Vorzeichen. Vor allem dann, wenn diese KI-Aussagen in die Websuche integriert werden. Wir dürfen gespannt sein, ob man sich auch in diese Richtung selbstkritisch rund um die Google I/O äußern wird.

Letzte Aktualisierung am 17.04.2024 / Bilder von der Amazon Product Advertising API / Affiliate Links, vielen Dank für eure Unterstützung!




Teile diesen Artikel:

Facebook twitter Pocket Pocket