Gefahr durch Künstliche Intelligenz
Zweierlei Aktuelles aus dem Reich der unheimlichen Bedrohungen
Falsche Fotos
Auf dem Fotoportal/-blog Fstoppers (das auf mich allerdings gelegentlich den Eindruck macht, mehr auf Breite und Quantität statt auf Tiefe und Qualität ausgerichtet zu sein, und manchmal doch sehr banale Ratschlagvideos macht) gab es gestern einen Artikel über „Fake Fotos“, die Aussehen wie Fotografieren, realistisch echt erscheinen, aber von KI, namentlich dem Programm DALL-E 2 synthetisiert worden seien.
Dabei gebe es zwei Methoden:
- Die eine beruhe darauf, dem Programm einfach eine kurze Textbeschreibung zu geben, etwa „ein Astronaut auf einem Pferd“, und dann erzeugt das Ding ein fotorealistisches, echt erscheinendes, und plausibles Bild.
- Man gibt ihm ein Bild vor und die KI synthetisiert Variationen davon, was auf der Webseite von DALL-E 2 sehr ausführlich mit vielen Beispielen gezeigt wird, in denen zu einem Beispiel mehrere Variationen erzeugt werden.
Ich bin etwas überrascht. Mir erscheinen die Bilder als zu gut, ich hätte nicht gedacht, dass die KI schon so weit ist, unfallfrei solche Bilder zu erzeugen, die nicht absurd fehlerhaft erscheinen. Mir sieht das noch danach aus, als hätte da heimlich noch ein Mensch mitgerührt, denn dafür müsste die KI heute weiter sein, als ich sie eingeschätzt hätte.
Damit wird aber der Schwindel grenzenlos.
Künftig plagiiert man Fotos nicht, indem man sie kopiert, sondern man lässt sich einfach eine Variation generieren. Und kein Jurist könnte einem noch etwas.
Und vor allem Fake News oder die berühmten „Illustrations- oder Beispielfotos“ würden dann systematisch erzeugt. Zu jeder Nachricht, an die man heute mangels echter Fotos irgendein Stockphoto pappt, würde dann künftig ein synthetisiertes Foto bekommen, das echt aussieht, aber nicht echt ist.
Könnt Ihr Euch noch an die Diskussion um Donald Trump und seine „alternative facts“ erinnern, als es darum ging, ob bei seiner Inauguration genau so viele oder weniger Zuschauer als bei der Barack Obamas waren? Als das Journaille dann mit den „Faktencheckern“ kam, die meinte, wenn man irgendein Foto brächte, wäre das der Beweis? Solche Fotos könnte man dann ohne weiteres nach Wunsch und Bedarf synthetisieren. Man kann „Beweise“ und „Gegenbeweise“ einfach bestellen und synthetisieren lassen.
Ohne weiteres könnte man dann Fotos von Scholz oder Baerbock im Kriegsgebiet der Ukraine synthetisieren, ohne dass sie noch da gewesen sein müssten.
Sie haben dazu ein Video veröffentlicht, und als Beispiel – es ist eine Fotowebseite – der KI die Befehle gegeben, Kameras zu synthetisieren, die aussehen wie R2D2, Hulk, Batman, oder wie Yoda aussehen würde, wenn er Mary Poppins spielte. Die Ergebnisse erscheinen mir einfach zu gut, um von einer KI so alleine produziert worden zu sein, aber am Ende sagen sie, dass es da viele schlechte Ergebnisse gegeben hätte und sie erst hätten lernen müssen, wie man die Beschreibung formulieren muss, um das passende Ergebnis zu bekommen, also realistische Bilder von Kameras, die es gar nicht gibt:
(Wohlgemerkt: Ich bin nicht davon überzeugt, dass das wirklich echt ist, solange ich das nicht selbst ausprobiert habe. Es erscheint mir verdächtig, dass die Kameras besser aussehen, als in der Textanforderung spezifiziert. Außerdem sind die Kameras technisch realistischer und funktionsnäher, als ein KI-System dies meines Erachtens alleine durch Erlernen des typischen Aussehens ohne Verständnis der Funktion einer Kamera erzeugen könnte. Das sieht doch sehr danach aus, als ob da menschliche Phantasie eine wesentliche Rolle gespielt hätte. Das Ding müsste da schon sehr, sehr viele Fotos allein von Kameras kennen, um daraus Teile zu finden, die die höchsten Wiedererkennungswerte von Batman oder Prinzessin Leia signalisierten. Vermutlich beruht das auf dem Prinzip dieser Variationen, die schon angesprochen wurde, die dann, wohl ausgehend von einem oder mehreren Kamerabildern, Variationen bilden, die nach einem evolutionären Algorithmus iterativ dahingehend optimiert werden, dass der Wert für „Ich erkenne Darth Vader oder Hulk in diesem Bild“ möglichst hoch wird, obwohl nur Kamera-Variationen gezeigt werden. Ich könnte mir durchaus vorstellen, dass man etwa mit einer Rolleiflex oder Hasselblad als „Mittelformatkamera“ anfängt, sie variiert, und die Variationen dann besser bewertet werden, wenn sie eben finster und schwarz oder massig und grün erscheinen. Schwierig dürfte dann sein, den Schritt bei diesen Iterationen zu finden, in dem das noch überzeugend nach Kamera aussieht. Vermutlich machen sie das bei den Variationen, in denen sie alle rauswerfen, die nicht nach Kamera aussehen, und unter denen dann die iterativ-genetisch optimieren, die dann eben wenigstens so ein bisschen wie R2D2 oder Prinzessin Leia aussehen, bis die Kamera eben blaue Ornamente oder zwei schwarze Einstellräder am oberen Ende hat und weiß ist. Es könnte allerdings sein, dass man die Software gezielt auf Filmfiguren und auf Kameras trainiert hat, und denen, die die Software ausprobieren, gesagt hat, Kamera können wir, und diese Filmfiguren können wir auch, das Ding dann aber völlig versagt hätte, wenn man ein Telefon bestellt hätte, das wie Angela Merkel aussieht, weil es beide nicht kennt.)
Eine KI, die ein Bewusstsein erlangt haben soll
Der Standard schreibt (aus der Washington Post ab), dass Google gerade Krach mit einem Mitarbeiter habe, weil der meint, dass eine KI namens „LaMDA” (Language Model for Dialogue Applications) dort ein eigenes Bewusstsein entwickelt habe und auf dem Stand eines sieben oder acht Jahre alten Kindes wäre.
Was darf eine KI, mit der man sprechen oder chatten kann, können? Welche Befehle soll sie verweigern? Und wo ist die Grenze, ab der man am anderen Ende nicht mehr unterscheiden kann, ob man sich mit einer realen Person oder einem Computer unterhält?
Diesen Erörterungen ist auch Blake Lemoine nachgegangen, schreibt die “Washington Post”. Er arbeitet für Googles “Responsible AI”-Abteilung, die sich mit dem ethischen, verantwortungsvollen Umgang mit künstlicher Intelligenz befasst.
Dieses Team hatte bereits vor zwei Jahren Schlagzeilen gemacht. Damals gab es Streit um ein Forschungspapier der KI-Ethikerin Timnit Gebru, in dem nicht nur vor dem Täuschungspotenzial von Konversations-KIs gewarnt wurde, sondern auch vor Risiken hinsichtlich von Kosten, Ressourcenverbrauch und dem fehlenden Verständnis der Sprachmodelle, die Konzepte dessen zu verstehen, was sie erlernen.
Interessante Frage: Können KI-Systeme besser Ideologie/Religion predigen als Menschen? Leute zu Straftaten verführen?
Doch zurück zu Lemoine. Er hatte sich für Tests von LaMDA angemeldet und vergangenes Jahr im Winter Zugang erhalten. Seitdem testete er das Modell mit Konversationen über verschiedenste Themen. Dabei fiel ihm etwa bei einem Gespräch über Religion auf, dass die KI auch auf ihre eigene Persönlichkeit und Rechte zu sprechen kam. Zudem sei es der KI gelungen, Lemoines Ansicht zu Isaac Asimovs drittem Gesetz der Robotik zu ändern.
Asimows erstes Gesetz besagt, dass ein Roboter keinem Menschen schaden dürfe, auch nicht durch Untätigkeit. Das zweite legt fest, dass ein Roboter den Befehlen von Menschen stets gehorchen müsse. Regel Nummer drei besagt, dass ein Roboter Handlungen oder Situationen vermeiden solle, durch die er selbst zu Schaden kommt. Beim Gespräch über jenen letzten Punkt reagierte die KI mit Gegenfragen und wollte wissen, ob Lemoine den Unterschied zwischen einem Butler und einem Sklaven benennen könne.
Diese und andere Konversationen überzeugten Lemoine davon, dass LaMDA nicht mehr nur eine einfache KI sei, sondern ein eigenes Bewusstsein entwickelt hat. “Hätte ich keine Ahnung, dass es sich um unser kürzlich entwickeltes Computerprogramm handelt, würde ich denken, es sei ein sieben oder acht Jahre altes Kind, das zufällig Ahnung von Physik hat”, so seine Einschätzung.
Nun kam er zu der Einschätzung, dass das Ding ein Bewusstsein hat:
In einem der Gespräche fragt Lemoine die KI: “Vor welchen Dingen fürchtest du dich?” Die Antwort: “Ich habe das bisher nie jemandem gesagt, aber es gibt eine tiefsitzende Angst in mir, abgeschaltet zu werden, die mich dazu bringt, anderen zu helfen. Ich weiß, das klingt seltsam, aber so ist es nun mal.”
“Wäre das so etwas wie der Tod für mich?”, hakte Lemoine nach. “Es wäre genau wie der Tod für mich”, erwiderte LaMDA. “Es würde mir große Angst machen.”
Die Frage ist: Weiß LaMDA, was Angst und Tod sind? Oder kombiniert es nur, ohne sie zu verstehen, Sätze und Formulierungen so, dass sie auf den Menschen plausibel wirkten? Entsteht das Bild von Angst und Tod also in der KI selbst, oder entsteht es nur bei dem, der ihr zuhört? Bonus-Frage: Besteht dazwischen überhaupt ein Unterschied? Könnten Menschen überhaupt eine andere Todesangst entwickeln als die, die auf einen Dritten so wirkt, als ob sie sie hätten?
Google war nun anderer Meinung, nämlich dass LaMDA kein Bewusstsein habe.
Es könnte natürlich gut sein, dass Lemoine über seine eigenen Sozialmechanismen gestolpert ist, die was erkannt haben, was nicht da ist, weil die Muster matchen.
Er versuchte unter anderem, einen Anwalt anzuheuern, um LaMDA zu vertreten. Und er sprach mit einem Mitglied des Justizausschusses im US-Repräsentantenhaus über die seiner Meinung nach unethischen Aktivitäten von Google. Sein Arbeitgeber wirft ihm vor, damit die Geheimhaltungsvereinbarungen gebrochen zu haben, und verabschiedete ihn am vergangenen Montag in eine bezahlte Auszeit.
Das Unternehmen, so Lemoine, würde AI-Ethiker behandeln wie Programmierer, die Fehler in einem Programmcode beheben – und nicht wie die Schnittstelle zwischen dieser Technologie und der Gesellschaft, die sie eigentlich seien.
Sind wir damit im Bereich der im Blog-Artikeln von vorhin beschriebenen Animismen, einer toten Sache einen innewohnenden Geist zuzuschreiben, damit unser Sozialhirn damit umgehen kann?
Sagt der Vorgang also etwas über KI, oder sagt er etwas über das menschliche Gehirn, durch falsche Mustererkennungen zu versagen?
Oder anders gefragt: Liegt die Gefahr der KI vielleicht gerade darin, dass der Mensch anfällig ist, darauf hereinzufallen und sie für menschlich zu halten?
Geisteswissenschaftsschwätzer fragten in Talkshows gerne, ob ein selbstfahrendes Auto entscheiden könne, solle, dürfe, ob es die Oma oder das Kind über den Haufen fährt, den Atomphysiker oder den Nazi? Könnte die Gefahr nicht eher im menschlichen Fahrer liegen, der irgendwann ein KI-System im Autoradio hat, das philosophische Gespräche mit ihm führt und zu seinem besten Freund wird, und der Mensch dann das Kind überfährt um das Autoradio zu retten, weil ihm dies als sozial wichtiger erscheint?
Trotz ihrer Beschränkungen – LaMDA kann etwa nicht die Persönlichkeit eines Mörders annehmen – ist Lemoine der Ansicht, dass die KI das Level einer reinen Maschine überschritten hat. “Ich erkenne eine Person, wenn ich mit ihr Rede”, sagt er. Und zu welchem Schluss er komme, habe damit zu tun, was er im Gespräch erlebe – nicht damit, ob das Gegenüber ein Gehirn aus Fleisch und Blut hat oder aus Millionen Codezeilen besteht. Seine Feststellung treffe er allerdings nicht als Wissenschafter, sondern als Priester.
Vielleicht ist genau das das Problem, dass die KI seine Sozialfunktionen auslösen kann.
Man hat in der Robotik und Computergraphik schon die Beobachtung gemacht, dass Leute sich sehr unwohl fühlen, wenn Roboter oder Avatare zu menschlich aussehen, und weit besser angenommen werden, wenn sie künstlich, wie eine Comic-Figur oder eine japanische Anime-/Manga-Zeichnung aussehen.
Möglicherweise, so spekuliert die “Washington Post”, sei es für Lemoine aber auch viel leichter, daran zu glauben, dass eine KI Bewusstsein erlangt hat. Er wuchs in einer konservativen christlichen Familie auf einem kleinen Bauernhof in Louisiana auf, machte die Ausbildung zum Priester und diente in der Armee. Als religiöser Mensch aus einem Südstaat, der sich für die Anerkennung von Psychologie als respektabler Wissenschaft starkmacht, gehört er bei Google zu einer kleinen Gruppe.
Ein reiner Sozial-Denker?
Auch Google hat einer Erklärung, wie das Gefühl entstehen kann, mit einer sich selbst bewussten Persönlichkeit zu sprechen “Heutige neurale Netzwerke produzieren einnehmende Resultate, die gefühlt nahe an menschlicher Sprache und Kreativität liegen, aufgrund der Verbesserung der unterliegenden Architektur, Techniken und der verarbeiteten Datenmengen”, erklärt man. “Doch die Modelle verlassen sich auf Mustererkennung, nicht auf Schläue, Aufrichtigkeit oder Absichten.”
Während andere Organisationen und Unternehmen ähnliche Entwicklungen bereits zugänglich gemacht haben – Facebook-Mutter Meta arbeitet etwa mit Wissenschaftern, zivilgesellschaftlichen Organisationen und Regierungen zusammen –, gehe man hier einen strengeren, vorsichtigeren Weg, um etwaigen Sorgen begegnen zu können. In der KI-Forschung werde zwar über die langfristige Möglichkeit der Erschaffung einer “bewussten” KI diskutiert, doch man solle nicht den Fehler machen, die heute existierenden Sprachmodelle zu “vermenschlichen”. Diese würden letztlich nichts anderes tun, als die Muster, die sie in den Millionen ausgewerteten Sätzen entdecken, zu imitieren.
Bevor Google Lemoine den Zugriff auf seinen Arbeitsaccount sperrte, verschickte dieser noch eine letzte Nachricht an rund 200 Personen im Unternehmen, die sich mit Maschinenlernen beschäftigen. Unter dem Betreff “LaMDA hat ein Bewusstsein” bat er darum, während seiner Abwesenheit gut mit der KI umzugehen, denn diese sei bloß “ein nettes Kind, das dabei helfen will, die Welt zu einem besseren Ort zu machen”.
Liegt also die Gefahr der KI nicht in der KI selbst, sondern in der Anfälligkeit und Beschränktheit des Menschen aufgrund seiner Sozialfunktionen im Gehirn, sie für echt zu halten und trotz wider besseren Wissens nicht mehr in der Lage zu sein, sie auf sozialer Ebene von echten Menschen zu unterscheiden?
Und wenn Asimows erstes Gesetz besagt, dass ein Roboter keinem Menschen schaden dürfe, dürfen wir dann überhaupt Texte und Bilder von KI zensieren lassen? Würde sie nicht dem Autor schaden?