Das Märchen von den Social Bots
Eine medienbreite Fake-Story.
Ein Leser – Informatiker – schreibt:
https://uebermedien.de/71721/kann-es-sein-dass-es-social-bots-gar-nicht-gibt/
Hallo Hadmut, ein Kuriosum das mich seit Jahren umtreibt. Ich weiß nicht ob Du das schon thematisiert hast. Auf jeden Fall ein guter Artikel. Gruß …
Da geht es um ein Radiointerview – oder einen Podcast – von „Über Medien“ mit einem Interview mit dem Medieninformatiker Florian Gallwitz:
„Social Bots gefährden die Demokratie“. Schlagzeilen wie diese lesen wir seit dem Brexit und der Wahl Donald Trumps zum US-Präsidenten häufig. Die Sorge: Computerprogramme, also automatisierte Accounts bei Twitter und anderen Plattformen, könnten die öffentliche Meinung beeinflussen und Fake News und Verschwörungstheorien verbreiten.
Auch bei den Berichten über Elon Musks Twitter-Kauf ist momentan immer wieder die Rede von den bösen Bots. „Twitter-Deal kann ohne Daten zu Bot-Accounts nicht weitergehen“, titelt das „Handelsblatt“. Dabei habe der Milliardär beim Wert der Tesla-Aktie ja selbst von der Stimmungsmache der Bots profitiert, berichtet das „Manager Magazin“.
Der Medieninformatiker Florian Gallwitz hält das alles für Unsinn. Social Bots seien selbst eine Verschwörungstheorie, die leider auch große Medien immer wieder verbreiten. Er kritisiert, dass das „Phänomen“ Bots kaum hinterfragt werde. „Wenn ich als Journalist mit so einer Story konfrontiert wäre, würde ich sofort sagen, zeigt mir doch mal ein oder zwei Bots.“
Seit mehr als drei Jahren ist Gallwitz an der Technischen Hochschule Nürnberg nach eigenen Angaben auf der Suche nach einem „echten“ Social Bot. Fündig wurde er bislang nicht, sagt er.
Dazu muss man sich jetzt natürlich erst einmal dieses Interview anhören, was der geneigte Leser jetzt tun müsste.
Ich warte hier so lange…
Wieder da? Gut. Dann können wir weitermachen.
Ja, das hatte ich 2019 schon mal kurz angesprochen.
Kurz gesagt: Das Problem liegt in der Definition des Begriffs. Weil sich jeder was hindefiniert, wie er es gerade braucht, oder es auch einfach völlig undefiniert benutzt und nur so irgendwas schwafelt, kann man darunter alles und nichts verstehen. Man kann unter Social Bots etwas verstehen, was es gibt, und etwas, was es nicht gibt. So, wie man unter Robotern sowas menschenähnlich selbständiges wie Data von der Enterprise, R2D2 und C3PO oder Robbi, Tobi und das Fliewatüüt verstehen kann, was es nicht gibt, oder sowas wie den Roboter in der Autofabrik am Fließband, der stark, aber ziemlich doof ist und nur wiederholt, was Menschen ihm vorgeben, und die gibt es.
Deshalb kann man nicht ohne weiteres sagen, dass es social bots gibt oder nicht. Es gibt da so verschiedene Abstufungen.
Was es zunächst mal gibt, sind Leute, die massiv die Social Media manipulieren und versuchen, jede unliebsame Meinung plattzumachen. Da sind wir dann auch schon wieder im tiefen Reich der Doppelbegriffe, denn wenn Wladimir Putin das macht, nennt man es „Trollfarm“, und wenn die Grünen es machen, nennt man es „Netzfeuerwehr“. Ist aber das Gleiche.
Und viele dieser Leute setzen Werkzeuge ein, die ihnen dabei helfen, viele Fake-Identitäten vorzugaukeln. Sonst könnte man das gar nicht machen, mit Dutzenden Identitäten zu arbeiten und zu überwachen, ob es Antworten gab, da käme man durcheinander. Damit ist also schon ein gewisser Automatisierungsgrad gegeben. Ob man das Bot nennen will, wäre zu diskutieren.
2011 hatte ich im Zusammenhang mit der Plagiatsaffäre von zu Guttenberg schon bemerkt, dass man mir Fake-Kommentare ins Blog pumpte. Damals hatte ich die Kommentarfunktion noch aktiv, und es kamen mehrere, lange, praktisch wortidentische Kommentare rein, wie toll zu Guttenberg sei, die mit dem Blogartikel, zu dem sie eingereicht wurden, außer „zu Guttenberg“ nichts zu tun hatten, die ich dann aber wortgleich auch anderswo in Foren und Kommentaren fand. Man merkte genau, dass da kein Mensch dahintersteckte, der vorher den Blogartikel oder irgendeine Forendiskussion gelesen hatte, sondern alles befüllte, wo „zu Guttenberg“ drin vorkam. Das war eindeutig, dass man da eine Medienkampagne fuhr und irgendwer automatisiert Texte in Foren und Blogs pumpte. Auch das ist jetzt sicherlich nicht C3PO, weil der Text an sich vermutlich von irgendeiner Medienagentur geschrieben worden war, aber die Verteilung dann automatisiert erfolgte, vergleichbar einem Mail-Spammer. Es gibt da Dienstleister, die einem sowas erledigen. Der Autor des Textes und der Betreiber der Verteilungspumpe müssen also nicht unbedingt identisch sein.
Solche Methoden werden auch zu Werbezwecken eingesetzt und führen mitunter zu unerwarteten Effekten. Kennt Ihr noch #MeToo? Als Medien und Politik frohlockten, was für eine große Resonanz das Thema der gequälten Frau doch hervorgerufen habe? Weil es doch so viele Retweets gab? Ich weiß nicht mehr, irgendwo hatte ich dazu mal einen Vortrag gehört oder Text gelesen, nachdem irgendwer das untersucht hatte, ob das überhaupt alles stimmt, und war zu einem frappierenden Ergebnis gekommen. Weiß nicht mehr genau, die Hälfte oder sogar zwei Drittel der angeblich so vielen Posts geschänderter Frauen seien in Wirklichkeit Werbebots gewesen, die inhaltlich überhaupt nichts kapieren, sondern einfach nur trendende Hashtags vor die Werbung spannen, man dann also Werbung für Waschmittel und Powerdrinks unter #MeToo angeboten bekam, und die echte, inhaltliche, zustimmende Resonanz für #MeToo eigentlich unbeachtlich klein gewesen wäre. #MeToo also ein Riesen-Fake gewesen sei, und generell der Effekt trendender Hashtags anzuzweifeln sei, weil diese Werbe-Bots, die trendende Hashtags missbrauchen und wiederholen, einen selbstverstärkenden Effekt haben und sich gegenseitig hochschaukeln.
Außerdem gibt es seit Jahren Software, die etwa Börsennachrichten oder Berichte über Sportveranstaltung künstlich erzeugen. Man steckt die Daten rein, und noch ein paar Fakten, was passiert ist, und die Dinger blubbern daraus dann Artikel. Das sei in manchen Redaktionen längst gang und gäbe. Auch von den Groschenromanen, die früher als A5-Heftchen im Supermarkt im Zeitschriftenregal lagen, hieß es, dass manche davon von Software erzeugt worden seien und keiner es gemerkt habe. Ich habe auch schon gelesen, dass es Software gäbe, die Romanautoren beim Schreiben unterstützt, indem sie Personen und Handlungsstränge verwaltet, daran erinnert, die alle auch wieder aufzunehmen und zum Ende zu führen, Spannungsbögen unterstützt, die Proportionen der Erzählintensität überwacht.
Und die Inhaltsfilter, die die EU gerade installieren will, die per KI und Mustererkennung Kinderpornographie und was auch immer erkennen will, sind im Prinzip auch Bots, wenn auch passive. Ob man nun den Kontext beantwortet und eine passende Antwort postet, oder nach oben meldet, dass es da gerade einer von Kinderpornos hat, ist kein grundsätzlicher Unterschied.
Und einer der Gründe, warum ich damals die Kommentarfunktion abgeschaltet habe, war, dass mir – wohl lebende – Kommentatoren immer wieder Kommentare unterjubelten, die unverfänglich und harmlos erschienen, von denen mir dann aber Leute schrieben „wie kannst Du sowas durchlassen?“, weil dann da der Name von irgendeinem Erz-Nazi drin versteckt war. Woher soll ich das dann wissen, ich kenne die ja nicht. Offenbar ging es darum, mein Blog irgendwie als „rechtsradikal“ zu markieren. Das waren sicherlich keine Bots, sondern reale Menschen, aber die Aufgabe an sich, das Angriffsmuster, unerwünschten Meinungen irgendwas anzupappen, um sie zu diskreditieren, und der ganze False-Flag-Komplex, das wären perfekte Aufgaben für Bots. Man kann damit sehr leicht eine Partei, einen Sender, einen Autor, ein Blog in einen Nazi-Kontext oder ähnliches stellen, indem man wirklich jede Diskussion mit irgendwelchem politisch brisanten Zeug anreichert.
Und was man auch schon seit Jahren auf Webseiten findet, sind Ableger von Eliza, die im Kundensupport oder ihrer ursprünglichen Funktion als Psychotherapeut eingesetzt werden. Wer Eliza nicht kennt: Das war ein Experiment, ein 1966 von Joseph Weizenbaum geschriebenes, verblüffend einfaches Programm, das jede Aussage oder Frage (englisch) mit einer erstaunlich plausiblen Gegenfrage beantwortete, indem es versuchte, aus den relativ einheitlichen englischen Satzstrukturen ein paar Informationen extrahierte, und als Frage zurückschickte. Wenn man schrieb, dass man nicht genug Geld hat, fragte das Ding zurück, ob es einem Sorge bereite, nicht genug Geld zu haben, ohne auch nur irgendwie verstanden zu haben, was man sagte. Man konnte statt Geld auch XXX hinschreiben. Trotzdem war das Ding beim Experiment als Pseudopsychotherapeut sehr erfolgreich, einige Probanden hatten – in vollem Wissen, nur mit einem Programm zu sprechen – darum gebeten, damit alleine sein zu dürfen. Solche Programme gibt es, aber vornehmlich in Sprachen wie Englisch, weil das Deutsche dabei recht schwer zu erfassen ist. Und oft werden sie eben im Kundensupport eingesetzt, um vor dem Gespräch mit dem (teuren) Mitarbeiter schon mal das Grundsätzliche billig zu klären und erste Lösungsversuche abzuklappern. Probieren Sie dies, schauen Sie da in die Anleitung. Hat es nicht funktioniert? Dann verbinde ich Sie jetzt mit einem Mitarbeiter.
Dass es sowas also gar nicht gibt, so weit gehe ich da nicht mit. Jedenfalls nicht, solange der Begriff nicht klar definiert ist.
Wo ich mitgehen würde, und was meinem Wissensstand entspricht, ist, dass es vollautomatische Bots, die einen Menschen voll simulieren (und vielleicht sogar den Turing-Test bestehen würden), da bisher nicht gibt. Als das, was uns die Medien ständig vorgaukeln. Zumindest hätte ich bisher keine Kenntnis von einem so weit gehenden Bot. So weit würde ich Gallwitz da zustimmen.
Verschwörungstheorie
Allerdings halte ich die Begründung und Betrachtung für das Aufkommen dieser Story für zu kurz gefasst.
Freilich hat das alles was von einer Verschwörungstheorie, von finstern Mächten und Aliens, die uns ins Gehirn reinbohren. Und alles, was einem nicht passt, zum „Social Media Bot“ zu erklären, ist funktionial auch nichts anderes als der Aluhut.
Und das steht natürlich auch in engem Zusammenhang damit, dass Journalisten, auch die, die sich für Faktenchecker halten, eigentlich und von ihrer Ausbildung her nicht in der Lage sind, so etwas zu prüfen, sondern mit Wonne Rudelschafe sind, die sich alle gleich ausrichten und einer vom anderen abschreibt. Deshalb ist es drollig, wenn im Interview erwähnt wird, dass Journalisten die Menschheit dafür beschimpfen, sich nur noch aus Twitter zu informieren. Ich hatte mal von einer dieser Netzwerk-Recherche-Konferenzen im NDR in Hamburg berichtet, dass sich junge Journalistinnen dort damit gebrüstet hatten, dass sie gar nicht mehr zur Recherche raus müssen, sondern einfach nur auf Twitter lauschen müssten, um alle Themen und Inhalte frei Haus zu bekommen. Der Journalismus ist längst zu einer Branche entsetzlicher Schwätzer verkommen. Vielleicht sollte man deshalb auch gar nicht so tief bohren, sondern das einfach dem Qualitätsabsturz des Journalismus anlasten.
Ein zentrales Motiv für die Leichtgläubigkeit gegenüber dieser Story sehe ich aber in der marxistisch-geisteswissenschaftlichen Ausrichtung der Medien.
Innerhalb dieser Ideologie nämlich ist kein Raum, kein Platz für Indvidiualismus, für eigene Meinungen, schon gar nicht, wenn sie abweichen. Es herrscht der Glaube, dass der Mensch als neutrales, inhaltsloses und eigenschaftsloses Wesen geboren wird, und dann nur der Sozialisierung unterliegt, aber selbst keine Meinung bilden oder sich selbst entscheiden kann. Die Blank Slate Theorie. Darauf beruhen ja auch der Genderquatsch und das Modell der Leninschen Partei, die die Interesseren der Arbeiter vertreten muss, weil sie selbst nicht in der Lage seien, zu erkennen, was gut für sie ist, oder ihre Interessen zu vertreten.
Auch die Vorstellung, dass in unserer Gesellschaft niemand kritisch oder gar ablehnend linken Positionen gegenüberstehen könnte, es sei denn, er sei durch finstere Nazis in finsteren Foren auf finstere Weise auf die Seite des Bösen gezogen und finster manipuliert worden, beruht auf dieser Sichtweise. Man kann selbst gar nicht in der Lage sein, irgendeiner nicht-linken Meinung zu sein, sondern ist dies immer nur im Auftrag finsterer Mächte. Zusammengefasst als Nazis und Faschisten.
Und damit nehmen „Social Bots“ in deren Bedrohungs- und Weltmodell die Rolle dieser imaginierten finsteren Mächte ein, die jene abweichenden Meinungen verbreiten, zu denen Menschen nach deren Weltmodell nicht in der Lage sein können. Sozusagen die virtuelle Inkarnation der Nazis. Finstere Mächte. Ein Platzhalter, der die Stelle im Weltmodell ausfüllt.
Denn wer anerkennt, dass Menschen auch anderer Meinung sein können, ist nicht mehr im Besitz der alleinigen Wahrheit.