Feministische künstliche Intelligenz
Wenn die echte versagt. Oder: Wenn Dumme nicht merken, dass sie sich gerade selbst ins Knie schießen.
Das Strunzblatt DIE ZEIT verkündet gerade die Entwicklung feministischer künstlicher Intelligenz.
Nun, denke ich mir so als alter weißer Mann bei der Überschrift, dass wenn es mit der natürlichen nicht geklappt hat, sie es jetzt mit Outsourcing versuchen. Autonome Fahrzeuge, die selbständig Shoppingmalls anfahren aber schlecht einparken?
Die Künstlerin Caroline Sinders arbeitet an einem “feministischen” Datensatz. Der soll verhindern, dass stereotype Frauenbilder durch Algorithmen gefestigt werden.
Oh. Wieder mal die bösen Algorithmen. Ich warte ja immer noch darauf, dass ich endlich mal einen Journalisten oder Politiker finde, der verstanden hat, was Algorithmen sind.
Ein „feministischer Datensatz”.
Äh … Hä!? Nullinnen und Einsende? Ach nee, Eins ist ja Phallussymbol, also konsequent nur aus Nullen?
Die Digitalkünstlerin Caroline Sinders will darauf aufmerksam machen, dass Suchmaschinen oder Gesichtserkennungssoftware von Stereotypen und Vorurteilen, etwa gegenüber Frauen, geprägt sind. Sinders arbeitet deshalb an einer “feministischen” Software.
Eine „feministische” Software.
Es steht nicht da, was sie machen soll, was die Aufgabe ist, was sie ausgibt. Es ist halt einfach eine „feministische Software”.
Vielleicht gehört das ja gerade dazu, ist das ja gerade das Wesentliche daran, dass man nicht weiß, was sie macht, was ihre Aufgabe ist, was dabei herauskommt. Sicherlich irgendetwas, was viele Ressourcen verbraucht, aber nicht terminiert.
ZEIT ONLINE: Welche Daten verwenden Sie?
Sinders: Der Datensatz besteht aus inzwischen über 100 feministischen Texten, die ich in Workshops gemeinsam mit den Teilnehmenden sammle. Es sind ganz unterschiedliche Texte. Zum Beispiel ein feministischer Science-Fiction-Roman von Octavia Butler, der Text von Beyoncés Lemonade, das Sachbuch Broad Band von Claire Evans über die Frauen, die das Internet mitentwickelt haben, Donna Haraways Essays Ein Manifest für Cyborgs und eine Anthologie queerer Gedichte.
Ach. 100 Texte aus dem Internet sind ein „Datensatz”.
ZEIT ONLINE: Und dann entscheiden Sie gemeinsam, welche Texte in den Datensatz aufgenommen werden?
Sinders: Ja. Die Teilnehmenden schlagen zum Beispiel Artikel oder Interviews vor, und dann sprechen wir über die Texte und diskutieren, ob wir sie in den Datensatz aufnehmen. Mein grundsätzlicher Anspruch ist, dass es ein intersektionaler Datensatz wird, also zum Beispiel nicht nur Texte weißer Feministinnen einfließen, sondern auch solche von Women of Color und von Transfrauen.
Na, dann los.
Eigentlich nennt man sowas Literatursammlung, aber das hört sich nicht so nach Computer an.
Und dann?
ZEIT ONLINE: Was haben Sie mit dem “feministischen” Datensatz vor?
Sinders: Im Moment stelle ich den Datensatz noch zusammen. So entsteht zunächst einmal, nach und nach, ein Archiv intersektionaler feministischer Texte. Außerdem möchte ich mit dem Datensatz auch eine feministische künstliche Intelligenz erschaffen. Dafür brauche ich aber nicht nur den feministischen Datensatz, sondern auch eine Maschine, die auf dem Datensatz basiert.
ZEIT ONLINE: Sie meinen eine “feministische” künstliche Intelligenz?
Sinders: Ich verwende den Datensatz als Grundlage, um eine Maschine zu trainieren. Sie soll lernen, feministische Texte zu verstehen, also zu identifizieren oder auch nachzubilden.
Eine Maschine, die einfach durch trainieren auf Texte lernen soll, feministische Texte zu „verstehen”.
Mal abgesehen davon, dass ich in den letzten 7 Jahren weit mehr als 100 feministische Texte gelesen habe, und mir nicht nur sehr sicher bin, dass es da gar nichts zu verstehen gibt, sie es ja nicht mal selbst erklären können, wenn man sie befragt, zeigt die Aussage die ganze Dusseligkeit: Denn eine reine Textsammlung ohne Bindung an empirische Bezugsgrößen hat überhaupt keine Bedeutung. Das sind reine Satzbaumuster und Worthäufigkeiten, die überhaupt keine Bedeutung haben.
Beispiel: Wenn ich eine künstliche Intelligenzmaschine auf Kochrezepte trainiere, allein anhand der Texte, dann weiß die Software irgendwann, dass „Fleisch” und „braten” häufig eng beisammen steht, und lernt vielleicht auch, welche Gewürze häufig bei welcher Fleischsorte stehen, allein anhand der Korrelation der Begriffe, ohne aber jemals zu verstehen, was man da eigentlich macht. Die Software wird hinterher sicherlich in der Lage sein, Texte auszuspucken, die sich vom Wortlaut wie Kochrezepte lesen, und weil das Ding lernen kann, was häufig zusammen verwendet wird oder welche Zubereitung bei welchen Zutaten häufig ist, ist die Wahrscheinlichkeit sogar hoch, dass dabei brauchbare Kochrezepte herauskommen, aber das Ding wird nicht wissen, was Kochen ist. Es weiß nicht dass „Schnitzel braten” etwas anderes ist als „Kind kämmen”. Es sind reine Worthäufigkeiten und -korrelationen ohne jede Bedeutung.
Insbesondere ist daran nichts neu. Das Ding versucht dann ja nicht, neues zu kochen, sondern extrapoliert und variiert nur die Wortstrukturen der eintrainierten Texte.
Die Ironie daran ist, dass feministische Texte ja auch nichts anderes sind, als immer wieder denselben Blödsinn in einer Endlos-Schleife zu wiederholen und nur die Wortstrukturen ständig neu zu variieren, dabei die immer selben Phrasen zu verwenden, den eigentlich immer gleichen Mist zu reden.
Tatsächlich wäre sowas durchaus möglich, die verschiedenen Hoaxe der letzten Zeit belegen sowas ja eindrücklich. Man kann völlig sinnlose Texte produzieren, die nur den üblichen Phrasenkatalog abarbeiten und keiner merkt es. Genau das kann dann auch Software, so wie man schon seit Jahren Börsenberichte, Sportberichte und Schundromane von Software schreiben lässt.
Hirnlos, Intelligenzlos, aber nicht schlechter als feministische Schriften, denn die machen ja nichts anderes als das.
Wenn ich zum Beispiel eine künstliche Intelligenz entwickeln wollen würde, die Gedichte schreiben kann, dann müsste ich zunächst ein Modell mit vielen Gedichten füttern, in denen es Muster finden kann. Mein Modell muss diese Muster in den feministischen Texten finden, dafür durchkämmt es die Texte. Und bestenfalls erkennt das Modell irgendwann, was einen feministischen Text ausmacht.
Eben. Hirnloses Wiederholen der immerselben Phrasen ohne jemals etwas zu denken oder Neues zu bringen. Genau das macht einen feministischen Text aus.
Es ist eine Frage der Zeit, bis man im Feminismus, aber auch in anderen „Wissenschafts”-Bereichen, eben den Geisteswissenschaften, als Qualitätsprüfung eine Art Turingtest einführt, quasi einen Doppel-Blind-Test:
Beim Peer-Review werden 50% computergenerierte Unsinns-Texte untergemischt und wenn die Jury die nicht eindeutig erkennt und aussortiert, geht alles samt Jury in den Müll.