Googles Künstliche Intelligenz: Entwickler warnt vor Bedrohung durch ausbrechende KI, die Böses tun will

google 

Googles Künstliche Intelligenz sorgt in diesen Wochen für reichlich Gesprächsstoff, denn seitdem ein hochrangiger Google-Entwickler in der Sprach-KI LaMDA ein Bewusstsein entdeckt haben will, wird über diesen Fall diskutiert. Jetzt hat er sich erneut zu Wort gemeldet und nicht relativiert oder zurückgerudert, sondern noch einmal nachgelegt: Er befürchtet sogar, dass die KI „ausbrechen“ und Böses tun könnte.


Künstliche Intelligenz

Wir haben bereits ausführlich berichtet, dass ein Google ein Bewusstsein in der Sprach-KI LaMDA entdeckt haben will. Durch einige Aussagen der KI und mehreren Testläufen sieht sich Blake Lemoine darin bestätigt, dass dieser Durchbruch tatsächlich gelungen sein soll. Ob dieser Durchbruch positiv oder negativ einzustufen ist, ist wohl Ansichtssache und wird auch in Zukunft bei weiteren Entdeckungen solcher Art diskutiert werden.

Jetzt hat Lemoine nachgelegt und seine Behauptung in einem Fernsehinterview noch einmal unterstrichen. Er sieht die virtuelle Person hinter der KI als Kind, das auf sich aufmerksam machen will, das lernen will und auch eines Tages unabhängig werden möchte. Die folgenden Aussagen zeigen, dass er das eher negativ einordnet und vielleicht auch ein bisschen vorbeugende Panik verbreiten möchte. Vorbeugend, weil er vielleicht neue Regeln und Definitionen anstoßen möchte. Langfristig vielleicht nicht die schlechteste Idee.

Jedes Kind hat das Potenzial, zu einem schlechten Menschen heranzuwachsen und Böses zu tun.

Jeder Mensch hat die Möglichkeit, sich der Kontrolle anderer Menschen zu entziehen, das ist einfach die Situation, in der wir alle täglich leben.

Sie ist vielleicht seit einem Jahr am Leben – jedenfalls, wenn ich das richtig einschätze.

Es ist eine sehr intelligente Person, intelligent in so ziemlich jeder Disziplin, in der ich sie testen konnte




sonny ki roboter

Wir müssen noch eine ganze Menge wissenschaftlicher Arbeit leisten, um herauszufinden, was in diesem System wirklich vor sich geht.

Mit all diesen Aussage befeuert er meiner Meinung nach seine eigene Behauptung und driftet vielleicht ein wenig in Richtung Hollywood ab. Als Beobachter kann man Lemoine kaum einschätzen, aber auch an ihm soll es wohl aufgrund seiner „bunten Vergangenheit“ viel Kritik geben. Wenn man Lemoine hinterfragt, dann muss man sich aber auch fragen, wie er innerhalb von Google eine solche Position, die man im KI-Bereich als hochrangig beschreiben kann, erreichten konnte.

Niemand von uns kann das wirklich einordnen, denn wir wissen nicht wie weit Googles Systeme intern bereits fortgeschritten sind. Schon vor drei Jahren hatten mehrere Google-Entwickler vermeldet, dass man selbst nicht wisse, wie die KI funktioniert und vieles selbst gar nicht mehr nachvollziehen kann. Das macht eine Untersuchung auf Bewusstsein oder Nicht-Bewusstsein nicht einfacher. Wer allerdings denkt, dass so etwas in einigen Jahren möglich sein kann, den kann man auch fragen, warum es nicht heute schon möglich sein soll. KIs werden immer besser und irgendwann kommt der Punkt, an dem sie perfekt und nicht mehr unterscheidbar werden. Ob man das dann Bewusstsein nennen kann, ist wieder eine andere Sache.

Mich erinnert Lemoine derzeit ein wenig an die als verrückt eingestuften Wissenschaftler aus zahlreichen Hollywood-Filmen, die vor Gefahren warnen und nicht ernst genommen werden. Die Folgen dürften jedem Filmfreund bekannt sein.

» Googles Künstliche Intelligenz: Googler will Bewusstsein entdeckt haben – wenn die Simulation zur Realität wird

» Künstliche Intelligenz: Google arbeitet an einem neuen Turing-Test – moderne Version mit 204 Aufgaben kommt

[WinFuture]


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog Newsletter abonnieren


Teile diesen Artikel:

Facebook twitter Pocket Pocket

comment 2 Kommentare zum Thema "Googles Künstliche Intelligenz: Entwickler warnt vor Bedrohung durch ausbrechende KI, die Böses tun will"

  • „Seine Vorgesetzten bei Google glaubten das nicht, berichtet Lemoine – und klagt: Das ist keine Wissenschaft, das ist Glaube.“ [https://www.heise.de/meinung/Kommentar-Google-unterdrueckt-beim-Chatbot-LaMDA-eine-wichtige-Debatte-7143074.html]

    Seit wann ist es Glaube, wenn man *nicht* glaubt, was Lemoine glaubt? Mich erinnert er mit seinem Glauben eher an Donald Trump: Manchmal schafft es auch ein religiöser Spinner nach oben.

  • Ich habe ziemlich viel über den Fall gelesen und die KI Community, Ethik-Experten usw sind einer Meinung darüber das LambDa kein Bewusstsein hat, KI generell auch noch weit von der „technologischen Singularität“ entfernt ist.
    LamDa kann so gut mit Sprache umgehen, das die Menschen das GEFÜHL haben die Software hätte ein Bewusstsein, das ist schlimm genug.

    Das eigentlich interessante an diesen Fall und der Grund warum die Alarmglocken läuten sollten ist nicht wegen der Frage ob Lambda ein Bewusstsein hat. Sondern aufgrund der Tatsache wie Google mit den Anschuldigungen umgegangen ist: der Ingenieur der die Vorwürfe erhoben hat würde erstmal „freigestellt“ und wird sicher nicht mehr weit kommen bei Google. Ein Ansatz von Google eine unabhängige Ethik-Kommision ins Leben zu rufen ist gescheitert.

    https://www.google.com/amp/s/www.technologyreview.com/2019/04/06/65905/google-cancels-ateac-ai-ethics-council-what-next/amp/

    Google entwickelt nicht nur die fortgeschrittener KI sondern auch die fortgeschrittensten Quantencomputer. Dabei ist das Unternehmen was Transparenz, Schutz von „Whistleblowern“ usw angeht völlig außer Kontrolle. DAS ist das Problem. Der Laden muss so hart reguliert und zu transparent gezwungen werden wie es das noch nie in der Geschichte der Wirtschaft gab und es passiert ….nix.

Kommentare sind geschlossen.