Angst vor der Künstlichen Intelligenz: Google nennt sieben Grundsatzregeln für alle KI-Projekte

google 

Die Künstliche Intelligenz hat in den vergangenen Monaten und Jahren sehr große Fortschritte gemach und befindet sich offenbar schon seit längerer Zeit an einem Punkt, an dem Richtlinien bzw. Prinzipien notwendig werden. Diese wurden bereits vor gut zwei Monaten aufgestellt, aber erst jetzt von Google in deutscher Sprache veröffentlicht.


Google stand vor allem durch das Militär-Projekt Maven in der Kritik, bei dem die Künstliche Intelligenz zu Militärischen Zwecken eingesetzt wurde – zwar nur zur Auswertung von Drohnenbildern, aber dennoch war damit für viele Mitarbeiter und Beobachter eine rote Linie überschritten worden. Nach langen Protesten hatte Google angekündigt, sich aus dem Projekt zurückzuziehen und entsprechende Prinzipien aufzustellen, um die aufgeworfenen Fragen für die Zukunft zu klären. Diese wurden von Google-CEO Sundar Pichai höchstpersönlich veröffentlicht.

Google Brain

Google hatte die Grundsatzregen für die Künstliche Intelligenz bereits vor zwei Monaten veröffentlicht, allerdings damals nur in englischer Sprache. Aber natürlich gelten die Regeln international und werden auch in regionalen Projekten Anwendung finden, die mit der Künstlichen Intelligenz in Berührung kommen – und das sind schon heute und vor allem auch in Zukunft praktisch alle Produkte und Projekte – denn nicht umsonst gilt im Unternehmen AI First.

Ein kurzer Überblick über die Prinzipien

Ziele des Einsatzes von KI
Wenn wir KI einsetzen, werden wir dabei stets die unten aufgeführten Ziele berücksichtigen. Wir glauben, dass KI den folgenden Grundsätzen entsprechen sollte:

  • Nutzen für die Gesellschaft
  • Vermeidung der Entstehung oder der Verstärkung unfairer Tendenzen oder Voreingenommenheiten
  • Sicherheit geht vor – bei der Entwicklung und im Einsatz von KI
  • Menschliche Verantwortlichkeit
  • Berücksichtigung von Datenschutz- und „Privacy by Design“ Prinzipien
  • Hohe Standards wissenschaftlicher Fachkompetenz
  • Einsatz im Einklang mit diesen Prinzipien

Trotz der offenbar seit langer Zeit vorbereiteten Übersetzung weist Google darauf hin, das auch in Deutschland die originalen Prinzipien der englischen Sprache zum Einsatz kommen.



Die vollständigen Prinzipien

Ziele des Einsatzes von KI

Wenn wir KI einsetzen, werden wir dabei stets die unten aufgeführten Ziele berücksichtigen. Wir glauben, dass KI den folgenden Grundsätzen entsprechen sollte:

1. Nutzen für die Gesellschaft

Die Tragweite neuer Technologien betrifft mehr und mehr unsere Gesellschaft im Ganzen. Fortschritte auf dem Gebiet der KI werden zukünftig in vielerlei Bereichen – wie Gesundheit, Sicherheit, Energie, Transport, Produktion und Unterhaltung – grundlegende Veränderungen nach sich ziehen. Wenn wir über mögliche Entwicklungen und Anwendungsfelder von KI-Technologien nachdenken, werden wir dabei verschiedenste soziale und ökonomische Faktoren berücksichtigen. Nur wenn wir überzeugt sind, dass die insgesamt zu erwartenden Vorteile die absehbaren Risiken und Nachteile deutlich überwiegen, werden wir die entsprechende Idee weiterverfolgen.
KI hilft uns auch dabei, die Bedeutung von Inhalten in großen Dimensionen zu verstehen. Wir wollen mit Hilfe von KI hochwertige und genaue Informationen jederzeit zur Verfügung stellen und dabei weiterhin die kulturellen, sozialen und rechtlichen Normen, die in den Ländern gelten, in denen wir aktiv sind, respektieren. Außerdem werden wir auch in Zukunft mit Bedacht entscheiden, wann wir unsere Technologien ohne kommerzielle Auswertung zur Verfügung stellen.

2. Vermeidung der Entstehung oder der Verstärkung unfairer Tendenzen oder Voreingenommenheiten

KI-Algorithmen und -Datensätze können unfaire Tendenzen oder Voreingenommenheiten widerspiegeln, verstärken oder abschwächen. Wir sind uns bewusst, dass die Unterscheidung von fairen und unfairen Tendenzen (“Bias”) nicht immer leicht ist und in jeder Kultur und Gesellschaft anders getroffen wird. Jedoch werden wir uns dafür einsetzen, ungerechte Auswirkungen auf Menschen zu vermeiden – dies gilt insbesondere im Zusammenhang mit so sensiblen Merkmalen wie ethnischer Herkunft, Geschlecht, Nationalität, Einkommen, sexueller Orientierung, Behinderung sowie politischen oder religiösen Ansichten und Überzeugungen.

3. Sicherheit geht vor – bei der Entwicklung und im Einsatz von KI

Wir werden auch weiterhin wirksame Sicherheitsmechanismen entwickeln und anwenden, um unerwünschte oder gefährliche Auswirkungen zu vermeiden. Wir werden bei der Entwicklung unserer KI-Systeme alle gebotene Vorsicht walten lassen und dafür sorgen, dass sie den “Best Practices” auf dem Gebiet der KI-Sicherheitsforschung entsprechen. Wo es angemessen ist, werden wir KI-Technologien in geschützten Umgebungen testen und sie auch nach ihrer Einführung überwachen.

4. Menschliche Verantwortlichkeit

Wir werden KI-Systeme entwickeln, die genügend Gelegenheit für Feedback, einschlägige Erklärungen und Einspruch bieten. Unsere KI-Technologien werden sich in ausreichendem Umfang von Menschen steuern und kontrollieren lassen.

5. Berücksichtigung von Datenschutz- und „Privacy by Design“ Prinzipien

Wir werden bei der Entwicklung und Anwendung unserer KI-Technologien unsere Datenschutzprinzipien berücksichtigen. Wir werden Gelegenheit zu Erklärung und Einwilligung geben, Architekturen mit geeigneten Datenschutzmaßnahmen fördern und angemessene Transparenz und Kontrolle über die Verwendung von Daten bieten.

6. Hohe Standards wissenschaftlicher Fachkompetenz

Technologische Innovation gründet auf wissenschaftlichen Methoden und einem Bekenntnis zu ergebnisoffener Forschung, intellektueller Stringenz, Integrität und Zusammenarbeit. KI-Tools verfügen über das Potenzial, in entscheidenden Gebieten wie Biologie, Chemie, Medizin und Umweltwissenschaften die bisherigen Grenzen wissenschaftlicher Forschung und Erkenntnis zu erweitern. Bei unseren Bemühungen, die Entwicklung von KI-Technologien voranzutreiben, orientieren wir uns an hohen Standards wissenschaftlicher Fachkompetenz.
Wir werden mit diversen Interessengruppen zusammenarbeiten, um auf diesem Gebiet mit Bedacht vorzugehen, und dabei auf streng wissenschaftliche und interdisziplinäre Ansätze zurückgreifen. Und wir werden unsere Kenntnisse im Bereich KI verantwortungsbewusst zugänglich machen, indem wir Lehrmaterialien, “Best Practices” und Forschungsergebnisse veröffentlichen, die es auch anderen Menschen ermöglichen, nützliche KI-Anwendungen zu entwickeln.



7. Einsatz im Einklang mit diesen Prinzipien

Viele Technologien werden in unterschiedlichsten Bereichen eingesetzt. Wir werden uns dafür einsetzen, potenziell gefährliche oder missbräuchliche Verwendungsmöglichkeiten zu begrenzen. Bei der Entwicklung und Umsetzung von KI-Technologien werden wir deren wahrscheinliche Einsatzbereiche unter Berücksichtigung der folgenden Faktoren einschätzen:

  • Hauptsächlicher Verwendungszweck und Einsatzbereich: der hauptsächliche Verwendungszweck und der wahrscheinliche Einsatzbereich einer Technologie und Anwendung – inklusive der Frage, wie wahrscheinlich eine schädliche Verwendung ist bzw. wie leicht eine solche durch Modifikationen herbeigeführt werden kann
  • Eigenschaften und Einzigartigkeit: die Frage, ob wir eine Technologie zur Verfügung stellen, die einzigartig oder eher allgemein zugänglich ist
  • Ausmaß: die Frage, ob die Verwendung dieser Technologie erhebliche Auswirkungen haben wird
  • Art der Beteiligung von Google: die Frage, ob wir universell einsetzbare Tools zur Verfügung stellen, Tools für Kunden integrieren oder individuelle Lösungen entwickeln

KI-Anwendungen, die wir nicht entwickeln werden

Wir werden nicht nur die oben genannten Ziele verfolgen, sondern uns zudem an den Grundsatz halten, KI in den folgenden Anwendungsbereichen weder zu entwickeln noch einzusetzen:

  1. Technologien, die (wahrscheinlich) generell schädlich sind. Wenn ein beträchtliches Risiko besteht, dass eine Technologie Schaden verursachen kann, werden wir mit der Entwicklung nur fortfahren, sofern wir überzeugt sind, dass der Nutzen die Risiken erheblich überwiegt, und zudem angemessene Sicherheitsvorkehrungen treffen.
  2. Waffen oder sonstige Technologien, deren primärer Zweck bzw. deren Haupteinsatzgebiet darin besteht, Menschen zu verletzen oder direkt dazu beizutragen.
  3. Technologien, die Informationen zu Überwachungszwecken sammeln oder nutzen und damit international akzeptierte Normen verletzen.
  4. Technologien, deren Zweck im Widerspruch zu allgemein akzeptierten Grundsätzen internationalen Rechts und der Menschenrechte steht.

Mehr Details zu diesen Grundlagen findet ihr in unserem damaligen Artikel mit etwas mehr Einblick in den Hintergrund und die Notwendigkeit solcher Prinzipien.

» Der Artikel im Google Deutschland-Blog

Mehr zum Thema
» Founders Letter: Google-Gründer Sergey Brin warnt vor den Folgen der Künstlichen Intelligenz
» Googles Künstliche Intelligenz macht große Fortschritte: Wo soll das noch hinführen?
» Selfish Ledger: Google-Interne Zukunftsvision zeigt die Möglichkeiten der Künstlichen Intelligenz (Video)


Keine Google-News mehr verpassen: Abonniere den GoogleWatchBlog-Newsletter
GoogleWatchBlog Newsletter abonnieren


Teile diesen Artikel:

comment 4 Kommentare zum Thema "Angst vor der Künstlichen Intelligenz: Google nennt sieben Grundsatzregeln für alle KI-Projekte"

  • „5. Berücksichtigung von Datenschutz- und „Privacy by Design“ Prinzipien
    und KI-Anwendungen, die wir nicht entwickeln werden:
    „3. Technologien, die Informationen zu Überwachungszwecken sammeln oder nutzen und damit international akzeptierte Normen verletzen.“
    Wegen des Patriot-Acts muss Google, wie jede US-Firma, alle gesammelten Daten bei der NSA abgeben. Wenn das hier ernst gemeint ist, dürfen gar keine Daten mehr gesammelt werden. Datensammeln ist aber das Geschäftsmodell von Google. Gilt übrigens natürlich auch seit Win10 für MS. Angeblich für Cortana wird jeder Tastendruck an MS und damit an die NSA geschickt. Kleingedrucktes: Damit wir Sie besser kennen lernen… speichern wir… Tastaturereignisse … 🙁 Linux lebe hoch!
    Da wird Google aber sehr viel mehr machen müssen als diese Richtlinien, damit irgendjemand glaubt, dass KI gegen und nicht für die staatliche Totalüberwachung eingesetzt wird.

  • Diese Art und Weise uns etwas mitzuteilen ist ein alter Hut. Als Hauptschüler sage ich: „Völlig wertlose Aussagen ganz Wichtig erscheinen zu lassen, tatsächlich nur Blah Blah Blah, alles bleibt offen, alles ist weiterhin möglich, gerade für Menschen, Firmen und Regierungen mit dunklen Gedanken und Ideen.“ Ich höre gerade wie sie über dieses Geschreibsel lachen. Schade, wirklich schade, aber das war schon immer so. Es kommt wie es kommt und am Ende gibt es ein paar Gewinner und von dem was hier steht wird das wenigste erfüllt werden. Warum glauben eigentlich immer noch so viele Menschen an die Ehrenhaftigkeit von Gewinnern und das die Verlierer selbst Schuld an ihrer Situation sind?
    Was mich wirklich ärgert, dass sich immer wieder Menschen finden lassen. die sich für diese Volksverblödung und Frechheiten einspannen lassen.

  • Der springende Punkt der ganzen Initiative ist die Positionierung der KI gegenüber ihren Kritikern. Die KI ist danach rational, die Kritiker sind emotional. In ihrer verständnisvollen Güte lassen sich die KI-Vertreter dazu herab, die „Ängste“ der Gegner so zu therapieren, so dass nach dem Sieg ihrer Position und der universellen Umsetzung von KI kein „irrationaler Widerstand“ mehr aufkommen kann. Das läuft aber auf eine Psychiatrisierung der Gesamtgesellschaft hinaus, da niemand außer Maschinen den KI-Standards genügen kann. Was wäre aber, wenn man mit diesem Gipfel der Technik ein vorzügliches Mittel zum Untergang geschaffen hätte, das den anderen ökologisch-segensreichen (!) Technikfolgen sozusagen die letzte Ölung gibt? Wer garantiert, dass es sich nicht um die Kopfgeburt einer clique von mad scientists handelt, die versuchen, ihre zwangshafte Weltsicht der Gesamtgesellschaft überzustülpen, egal was daraus resultiert? Wer ist hier rational: Derjenige, der solche Zweifel zulässt und diskutiert oder derjenige, der sie (wie die KI-Vertreter) nicht einmal thematisieren kann?

  • Jap, wie schon ein Vorredner sagte, die Prinzipien sind nur Blendwerk. Weder hält sich Google daran noch wird es sich daran halten. Es dient lediglich Zweifler für ihre Produkte zu gewinnen. Kennt denn noch jemand die schönen Unternehmensleitlinien? Work-Life-Balance, Allgemeinverträglichkeit, Nachhaltigkeit usw. usf. Lügen waren und bleiben ein Problem menschlicher Gesellschaften vorallem deshalb, da die Gesellschaften auf der Welt ihre Mitglieder höchst unterschiedlich behandeln, je nachdem, wieviel Einfluss das jeweilige Mitglied hat.

    Überspitzt kann man sagen, wenn andere Unternehmen so blöd sind und sich an die Regeln von Google zu halten wächst zugleich auch der Anteil von Google an diesem „Black Market“, die anderen halten sich ja freiwillig heraus, was den Preis in die Höhe treiben lässt. Ganz nach dem Motto, jede Sekunde kommt ein neuer Blödmann auf die Welt und IHR kommt gerade recht..:D

    Hätte es Google ernst gemeint, dann wäre nicht so ein halbgares Gewäsch herausgekommen. Selbst Asimovs Regeln sind ausgeklügelter und sinnhafter als dieser Blödsinn hier. Zumal, wer genau darauf achtet, der merkt, dass Google mit der 7ten Regel wieder alles aufweicht und ad absurdum führt. Im kaufmännischen Handwerk nennt man das eine Salvatorische Klausel: Selbst wenn es Regeln gibt die falsch sind, bleiben alle übrigen Regeln in Kraft und wirksam, egal wie sehr verbunden sie mit den falschen Regeln sind. Kurzum, wenn man für etwas eine Regel schafft, dann schreibt man nicht nocheinmal, dass man sich auch daran halten soll.

    Unausgegoren.

    Eine richtige Regel definiert eindeutig, unmissverständlich und ist nicht interpretierbar. Gerade in der IT
    ist solcherlei Definition ein Kinderspiel (zwischen Menschen ist das schon schwieriger). Asimov hat es ja gezeigt.
    Es ist nicht so, dass es keine Leute mit dem nötigen Intellekt geben würde, sie werden nur einfach nicht beachtet! Das ist wie mit dem deutschen Wissenschaftsrat. Es gibt genug kluge Leute, nur ist deren Klugheit nichts lobbytauglich ;(

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.