Die marxistische Zensur der Wissenschaft ist in vollem Gange
Die Dummheit und Arglosigkeit der Wissenschaftler gegenüber Bedrohungen hat dazu geführt, dass der Marxismus sich über die Universitäten in die Gesellschaft ausbreiten konnte.
Nun sehen sich die Wissenschaftler selbst mit der Zensur konfrontiert, deren Brut sie selbst ermöglicht und finanziert haben.
Oder: Wie aus „Künstliche Intelligenz” die „Künstliche Ideologie” gemacht wird.
Und: Wie man den linken Mob abwehrt.
Auf Quillette schreibt ein Wissenschaftler mit Fachgebiet künstlicher Intelligenz, dass wissenschaftliche Papers inzwischen zurückgewiesen werden, weil ein linker Mob sie für „unethisch” erklärt (was mich exakt an die Vorgänge in der Piratenpartei vor 10 Jahren erinnert, da gab es ja auch heimliche marxistische Zensoren in den Parteimedien, die – für die Parteiöffentlichkeit nicht ersichtlich – im Hintergrund und anonym darüber entschieden haben, was veröffentlicht werden darf und was nicht).
Immerhin schreibt der Autor, Pedro Domingos, dass es möglich wäre, sich dagegen zu wehren.
Dass die Marxisten schon lange von „bösen Algorithmen” und „rassistischer Künstlicher Intelligenz” sprechen, ist bekannt.
Tatsächlich steckt da eher ihre Angst dahinter, dass noch irgendwelche Entscheidungen von irgendwas getroffen werden könnten, was nicht dem Primat der Ideologie untersteht. Und so schreibt er
To understand the flash point at issue, it’s necessary to delve briefly into how AI functions. In many cases, AI algorithms have partly replaced both formal and informal human decision-making systems that pick who gets hired or promoted within organizations. Financial institutions use AI to determine who gets a loan. And some police agencies use AI to anticipate which neighborhoods will be afflicted by crime. As such, there has been a great focus on ensuring that algorithms won’t replicate their coders’ implicit biases against, say, women or visible minorities. Citing evidence that, for instance, “commercial face recognition systems have much higher error rates for dark-skinned women while having minimal errors on light skinned men,” computer scientist Timnit Gebru, formerly the co-lead of Google’s ethical AI team, has argued that AI systems are contaminated by the biases of the mostly white male programmers that created them. In a paper authored with colleagues at Google and my university, she warned that large language-based AI systems in particular encourage a “hegemonic worldview” that serves to perpetuate hate speech and bigotry.
Das Argument, dass Technik rassistisch sei, weil Seifenspender mit Näherungssensoren nicht angehen, wenn jemand mit dunkler Haut darunter ist, oder die Gesichtserkennung Schwarze schlechter erkennt als Weiße, ist so verbreitet wie dumm und selbst rassistisch. Ein Infrarotsensor als Näherungsschalter kann mit schwarzer Haut nicht gleich gut funktionieren, weil der Punkt, warum sie dunkel aussieht, na – Überraschung – das Hautpigment ist. Das sieht deshalb dunkel aus, weil es weniger reflektiert. Warum? Weil es nicht die Haut, sondern die Fettschicht in der Haut ist, die reflektiert, und die Aufgabe der Hautpigmente, eben jene Fettschichten (die leben), vor Sonnenlicht zu schützen. Dazu müsste die Haut entweder verspiegelt sein, um das Licht vorher zu reflektieren (es gibt tatsächlich eine Art von Silberameisen, die so funktionieren, nämlich eine Haarschicht besitzen, die wie eine Oberflächenverspiegelung wirkt und sie deshalb hitzetauglich macht) oder zu absorbieren (=schwarz). Das ist nicht Rassismus, das ist Evolution und Physik.
Ich finde es aber rassistisch, wenn Leute sich aufregen, dass Weiße Seifenspender und Gesichtserkennungen bauen, die nur Weiße erkennen. Oder Kameras, die nur Weiße gut fotografieren. Denn das unterstellt, dass nur Weiße Seifenspender bauen könnten und den Rest der Welt mitversorgen müssten. Wäre es nicht konsequente Identitätspolitik, wenn jede Hautfarbengruppe ihre eigenen Seifenspender konstruiert und dann auf den Toiletten eben fünf repräsentative Seifenspender hängen, für jede Hautfarbengruppe ein eigener, von der jeweiligen Gruppe konstruiert?
Das Problem dürfte eher folgendes sein:
KI überträgt (bisher) keine erlernte Ideologie auf andere Themen.
KI wird trainiert. Wenn die also der Meinung ist, einen Posten lieber mit einem Mann zu besetzen oder dem Weißen mehr Kredit als dem Schwarzen, dann kann das rassistisch sein, muss aber nicht. Es kommt darauf an, ob man das Ding mit den Entscheidungen eines Rassisten oder aber mit den tatsächlichen Leistungswerten aus gemachten Beobachtungen füttert. Und damit könnte KI aufgrund ihrer strikten Fokussierung Marxismus widerlegen, nämlich indem sie beispielsweise nachweist, dass Männer in irgendeinem Aufgabenbereich tatsächlich mehr leisten und deshalb Bewerber A mehr Leistung erwarten lässt als Bewerberin B. Das wäre nicht rassistisch, sondern empirisch.
Und nichts fürchten Ideologen im Allgemeinen und Marxisten im Besonderen so, wie die Empirie, die ihren Ideologieschwachsinn widerlegen könnte. Eine KI kann man nicht im Kindergarten abrichten, man kann ihr Haus nicht beschmieren, sie bei den Nachbarn nicht diffamieren und ihr nicht mit Entlassung drohen. Man kann ihre keine Flasche an den Kopf werfen, sie nicht niederschreien oder verprügeln. Künstliche Intelligenz war von Lenin, Stalin und Mao nicht vorgesehen.
Deshalb haben sie damit ein Problem.
Und deshalb bekämpfen sie jetzt KI marxistisch:
These issues have also been taken up by the Conference on Neural Information Processing Systems (NeurIPS), the leading conference in the AI community. As of this writing, the NeurIPS home page is dominated by a statement attesting to the organizers’ commitment to “principles of ethics, fairness, and inclusivity.” This year, NeurIPS has started requiring paper authors to include a section describing the “broader impacts” on society that the underlying science might present, no matter how obscurely technical the underlying content. There is also an ethics board to evaluate whether any paper runs afoul of such concerns. “Regardless of scientific quality or contribution,” the organizers have announced, “a submission may be rejected for ethical considerations, including methods, applications, or data that create or reinforce unfair bias” (or, less controversially, “that have a primary purpose of harm or injury”).
So, wie man an den Universitäten im Sozialismus immer das Fach „Marxismus-Leninismus” mitstudieren musste und man im Westen „Gender-Studies” belegen musste (ist das gleiche), muss man nun in der KI immer noch einen Absatz zu den sozialen Auswirkungen schreiben. Was auch mit der Frauenquote zu tun hat, denn Quotenfrauen wollen ja auch irgendwas außer dem Datum und der Seitennummer finden, was sie verstehen, was ihnen liegt.
Nun kommt aber noch dazu, dass man alles ablehnt, was aufgrund eines wie auch immer gearteten, etwa empirischen Befundes zu anderen Ergebnissen als von den Marxisten gewünscht führt. Ich greife diesen einen Satz nochmal heraus:
“Regardless of scientific quality or contribution,” the organizers have announced, “a submission may be rejected for ethical considerations, including methods, applications, or data that create or reinforce unfair bias” (or, less controversially, “that have a primary purpose of harm or injury”).
Das heißt, dass eine wissenschaftliche Erkenntnis, so wissenschaftlich und erkennig sie auch sein, gleich welcher Qualität und Güte, künftig als unethisch abgewiesen wird, wenn deren Ergebnisse von der marxistisch vorgeschriebenen Gleichstellung abweichen.
Wenn also künftig jemand eine Stoppuhr auf KI-Basis baut, die feststellt, dass Männer beim 100-Meter-Lauf doch etwas schneller rennen als Frauen, oder eine Waage, die dahinter kommt, dass männliche Gewichtheber mehr heben als weibliche, dann wird das wissenschaftlich nicht mehr veröffentlicht. Weil es keine wissenschaftlichen Ergebnisse mehr geben kann, die marxistischen Vorgaben zuwiderlaufen.
Umgekehrt reicht es für die Publikation, wenn es zu marxistischen Vorgaben passt. Wissenschaft und Erkenntnis sind dann nicht mehr so erforderlich, denn beispielsweise das Inhaltsverzeichnis des Journals darf ja keinen Bias zugunsten von Männern erahnen lassen, wenn die mehr schreiben und publizieren.
Das passt dann auch dazu, dass man bei Klima und Corona donnert, man müsse auf „die Wissenschaft” hören, wenn man gleichzeitig sicherstellt, dass „die Wissenschaft” nur noch Marxismus blubbert.
It's alarming that NeurIPS papers are being rejected based on "ethics reviews". How do we guard against ideological biases in such reviews? Since when are scientific conferences in the business of policing the perceived ethics of technical papers?
— Pedro Domingos (@pmddomingos) December 8, 2020
Und wie begründen sie das?
As so often happens in these confrontations, the discussion was derailed by hyperbolic accusations of racism.
Yup. Die Rassismus-Keule, damit geht alles. Früher war es noch Sexismus, aber inzwischen geht es ja um Rassen.
Und wer?
Naturally, the mob went after my university, and my own department distanced itself from my critique of the NeurIPS policy.
Ach, der linke Mob. Und die eigene Fakultät. Wer hätte das gedacht?
Wie schnell?
In a matter of just a few days, submission protocols at an academic conference had attained the status of social-justice holy writ, with naysayers—myself foremost among them—denounced as heretics.
Und sonst?
The mob leader even wrote lengthy Twitter threads listing off the names of anyone who’d liked or retweeted my critiques of her position, suggesting they were all bigots.
Ah, ja. Paper ablehnen reicht nicht, man wird noch über die social media diffamiert.
Und dann noch der Krieg gegen alle, die ihm folgen. Das muss man sich echt mal anschauen. Es reicht nicht, ein Paper abzulehnen, es geht um einen Isolationskrieg.
Der Twitter-Account scheint nicht mehr zu existieren, aber die Tussi leitet die KI-Abteilung bei Nvidia. Da weiß man ja, was man künftig von Nvidia-Hardware und -software zu erwarten hat.
Dann haben aber wohl doch einige das Maul aufgemacht:
But as the days passed, and it became clear who the real radicals were, something interesting happened. Many of the usually reticent moderates in our community began to speak up, and denounce the unhinged and ruthless tactics applied against me and my supporters. In the end, I suffered no professional consequences (at least not in any formal way). And the cancel crowd’s ringleader even issued a public apology and promised to mend her ways. She is no longer on Twitter, and we’re rid of the most vicious cancel-culture bully in the AI community.
Sie haben es also tatsächlich geschaft, einen linken Mob-Angriff zur Übernahme der KI-Community noch abzuwehren.
Abwehr
Das ist mir jetzt zu lang, das einzeln nachzubeten, aber: Der Autor gibt im unteren Teil des Artikels eine Reihe richtig guter und nützlicher Ratschläge, wie man sich als Wissenschaftler heute gegen den bolschewistischen Mob wehren kann, der inzwischen alle Bereiche der Gesellschaft und Wissenschaft zu übernehmen versucht. Lesenswert.
Perhaps most importantly, remember that most cancellation attempts end in failure. It’s hard to know that, however, because we seldom hear about the mobbings that fizzle out. Instead, the mob relies on its high-status wins to keep everyone in line. They enjoy the illusion that their movement is unstoppable, when in fact it becomes a subject of mockery as soon as a critical mass of people raise their voices against it.
Wie auch immer.
Die Universitäten haben sich mit ihrer Ignoranz gegenüber dem Wissenschaftsbetrug und ihrer Toleranz gegenüber Ideologen und Frauenquoten einen marxistischen Mob eingehandelt, der inzwischen so viele Teile und Funktionen der Universitäten übernommen hat, dass die Universitäten als kaum noch rettbar erscheinen.
Es scheint aber einen kleinen Funken Hoffnung zu geben, dass es doch noch ein paar gibt, die endlich das Maul aufmachen und sich gegen solche Mob-Angriffe wehren.