Wie die deutsche Informatik im Allgemeinen und die IT-Sicherheit im Besonderen im Geschwätz versinken
Seit 20 Jahren beschreibe ich, wie man auf politischen Druck die Informatik-Professuren in Deutschland systematisch mit inkompetenten Leuten besetzt, die garantiert nichts hervorbringen, was politisch heikel oder technologisch konkurrenzfähig sein könnte.
Ein Leser machte mich auf einen aktuellen Flyer aufmerksam. Das hessische Ministerium des Innern und für Sport hält zum zweiten Mal die „Ringvorlesung Cybersicherheit“ abhält, und dazu diese Webseite und diesen Flyer anbietet.
Vom Flyer scheint es auch verschiedene Versionen zu geben. Ich beziehe mich nachfolgend auf die aktuelle Version der Webseite.
Zurück in die Zukunft – Wie analoge Rechner unsere digitale Welt verändern können
Prof. Dr. Bernd Ulmann, Professor für Wirtschaftsinformatik
Der Vortrag ist schon gelaufen, die Folien gibt es hier.
Die Folien und das Thema wirken auf mich wie ein Laienvortrag. Wie so eine Schüler-Studienarbeit. Weil da Dinge völlig falsch bewertet und eingeordnet werden.
Ja, ich kenne Analogrechner. Ich habe als Schüler Rechenschieber verwendet (und besitze sie noch). Ich habe in der 12. Klasse als Studienarbeit mit Operationsverstärkern Integral- und Differentialschaltungen gebaut und damit Messungen durchgeführt und die Mathematik erklärt. Bei der Bundeswehr gab es das Rechengerät Balistik, ein Analogrechner aus Röhren. Neulich in Neuseeland im Museum einen riesigen mechanischen Analogrechner zur Lösung von Differentialgleichungen und sowas besichtig.
Ja, ich weiß, was die können.
Aber die Realität ist eben auch, dass die in ein Zeitalter gehören und in einen Bereich der Genauigkeit, als man einen Plot auf einem DIN A4-Blatt noch als Lösung einer Aufgabe anerkannte. Und deren Stärken im Bereich der Differentialrechnung liegen, sie aber heutigen Anforderungen nicht mehr entspricht. Analogrechner sind mit Toleranzen, Schwankungen, Abnutzungen, Rauschen, Temperaturabhängigkeiten, Abhängigkeiten von Versorgungsspannungen, sogar Erschütterungen (und das sogar bei elektrischen Rechnern, nämlich über den Innenaufbau der Röhren) belastet, und das in einem Maß, dass die digitalen Simulationen sie nicht nur fast immer längst abhängen, sondern eben auch Anforderungen an Reproduzierbarkeit und so weiter erfüllen.
Der Hauptpunkt ist aber ein anderer: Wir haben heute ganz andere Problemstellungen. In der Frühzeit der Informatik hat man sich noch auf solche Dinge konzentriert, wie Logarithmen zu berechnen oder eben Differentialgleichungen zu lösen, beispielsweise den Flug einer Granate zu berechnen. Schön. Das tun wir heute aber nur noch selten. Die meisten Anwendungen, die wir haben, sind nicht nur digitale Problemstellungen, sondern beruhen auf Datenspeicherung und Datenübertragung. Und beides können Analogrechner nicht gut.
Wisst Ihr, wo ich hingehe, wenn ich Analogrechner sehen will? Zwei Straßen weiter gibt es ein großes Musikgeschäft. Die haben noch altmodische Synthesizer, Gitarreneffektgeräte und sowas. Aber selbst die, die äußerlich auf analog machen, sind innerlich inzwischen oft digital.
Wenn dieser Professor jetzt also erzählt, Aanlogrechner seien für „High Performance Computing“, und das „im Allgemeinen“ da, ist das schlicht falsch.
Und auch das mit dem geringeren Strombedarf ist so nicht so richtig. Klar kann man Schaltungen bauen, die mit sehr wenig Strom auskommen. Aber da wirkt sich dann das Rauschen immer stärker aus. Vor allem braucht man dann wieder A/D-Wandler. Und nach meiner Erfahrung brauchen Mikrocontroller oft weniger Strom, als die analoge Schaltung. Man darf natürlich nicht versuchen, die analoge Schaltung mit seinem Windows-PC mit Festplatte und core-i7 zu simulieren. Der zieht was an Strom. Deshalb ist das so auch nicht richtig, wenn der erzählt, dass man analoge Schaltungen per „Energy Harvesting“ betreiben könnte. Und digitale etwa nicht?
Industrielle Meß-, Steuer- und Regelungssysteme (nicht zuletzt im Bereich kritischer Infrastrukturen)
Ja.
Wisst Ihr, was der größte Analogrechner war, mit dem ich bisher zu tun hatte?
Ein Kernkraftwerk.
Gänge voller Schaltschränke mit analoger Mess-, Steuer-, Rechentechnik.
Ich habe vor 20 Jahren mal eins abgesichert und ans Internet angeschlossen, damals das erste Kernkraftwerk am Internet. Genauer gesagt, zwei, denn die hatten zwei Blöcke. Einen alten, noch mit ganzen Schrankreihen voller Analogschaltungen, und einen neuen, digital gesteuert.
Der alte hatte den Vorteil, dass man den über das Internet nicht hacken konnte, es gab da einfach nichts zu hacken. Das heißt aber nicht, dass der gegen Fehler und Störungen nicht anfällig war und man ihn nicht anderweitig hätte manipulieren können. Auch der digitale Block wäre über das Internet nicht zu warten gewesen, wenn man ihn nicht an das Internet angeschlossen hätte, das war aber nun einmal die Anforderung. Insgesamt war die Leistung der analogen Rechentechnik viel geringer, und es gab halt ein paar Zeigerinstrumente und Warnlampen. Man muss mal diese Schaltschränke von innen gesehen haben, um sich mal klar zu machen, was man da eigentlich hat und tut. Dass das Zeug altert. Dass man das mit dem Lötkolben repariert. Dass das seine Gründe hatte, warum man den zweiten, neueren Block dann digital baute. Und dass das eben nicht so ist, dass analoge Rechentechnik weniger Strom braucht.
Und dann sowas:
Das klassische Patchpanel zur Programmierung gehört in Museen – moderne Analogrechner mussen automatisch rekonfigurierbar sein.
Also doch wieder digital?
Hierfür wird eine höhere Programmiersprache zusammen mit einem Compiler und entsprechenden Bibliotheken benötigt.
Also sowas wie analoger FPGA? Also doch wieder digital als Grundlage? Sowas vertreiben die, die er da als Quelle angibt, aber nach mehr als einem Bastelplatinchen sieht das auch nicht aus. Wenn er sich wirklich mit der Mischung von Analog- und Digitalschaltungen befasst hätte, würde er die Software Defined Radios betrachten, die sind nämlich schon massig in Anwendung, stecken in vielen DVB-T-Empfängern und ähnlichem.
Als Anwendung findet er dann die KI, weil man neuronale Netze per Analog-Schaltungen simulieren will, und begründet das damit, dass auch das Gehirn ein Analogrechner sei (begeht aber den Denkfehler, dass sich Hirn und Computer in vielem unterscheiden und deshalb nicht eine Eigenschaft willkürlich als kausal herhalten kann). Und dann bringt er noch Analogrechner für Lehr- und Ausbildungszwecke.
Auf mich wirkt das wie typisches Laienauftreten mit Halbwissen. Leute finden irgendwo eine Nischen- oder Experimentalanwendung und halten die dann für den Stein der Weisen, weil sie nicht merken, wofür die dienen, welchen Randbedingungen sie unterliegen, welche Grenzen sie haben. Laien neigen dazu, sich irgendeinen Randfall rauszusuchen und den dann für das Non-plus-ultra zu halten, aber die Probleme und Hindernisse nicht verstehen. Und sich dann so in ein Wunschdenken begeben und sich für innovativ halten, weil sie abseits stehen.
Es hat einen Grund, warum man das analoge C-Netz durch das D-Netz, die Schallplatte durch die CD, Analogfernsehen durch Digitales ersetzt hat.
Schwachstelle iPhone? Sicherheitsrisiken im Apple-Ökosystem
Prof. Dr. Matthias Holllick, Professor für Informatik und Leiter des Secure Mobile Networking Lab an der TU Darmstadt
Das ist der einzige Vortrag, der mir da anhand des Flyers nach Inhalt und Thema angemessen erscheint.
Hate Speech & Fake News – KI zur Erkennung von Hass und Lügen im Internet
Prof. Dr. Melanie Siegel, Professorin für Informationswissenschaft, insbesondere semantische Technologien an der Hochschule Darmstadt
- Die Kommentarspalten sozialer Medien werden zunehmend von Menschen dominiert, die diffamieren, beleidigen oder bedrohen. Die Verfolgung von Hate Speech ist für die Justiz manuell kaum möglich.
- Es besteht ein dringender Bedarf an Methoden zur automatischen Klassifikation von Hate Speech und anderen toxischen Äußerungen, um die Menschen, die sich damit befassen müssen, zu unterstützen.
- Das Forschungsprojekt „DeTOx“ erforschte dahingehend Erkennungstools zur automatischen Klassifikation von Hate Speech und anderen toxischen Äußerungen auf Basis von künstlicher Intelligenz.
Was soll das mit „Cybersicherheit“ zu tun haben?
Das ist doch offenkundig nur politisch korrektes Zeitgeistgeschwätz fachunfähiger Quotenfrauen. Wenn man nichts kann, faselt man eben das, was heute alle linken Frauen faseln.
Laut ihrer Selbstbeschreibung „Computerlinguistin und Sprachtechnologin“. Was soll das mit Cybersicherheit zu tun haben? Das ist vielleicht etwas für einen Strafrechtskongress, aber da merkt man so richtig, wie das Ministerium ihre politische Agenda in die Cybersicherheit drückt. Wieder mal ein Beispiel, wie Quotenfrauen die Themen völlig in andere Bereiche verschieben.
Drohnen & Organic Computing – Künstliche DNA in IT-Systemen
Prof. Dr. Uwe Brinkschulte (Goethe-Universität Frankfurt), Professor für Eingebettete Systeme an der Goethe-Universität Frankfurt
Prof. Dr. Mathias Pacher (Goethe-Universität Frankfurt), Professor für selbstorganisierende Eingebettete Systeme an der Goethe-Universität Frankfurt
- Das Forschungsfeld Organic Computing erprobt die Anwendung biologischer Prinzipien auf vernetzte Rechnersysteme.
- Prinzipien der DNA und des Hormonsystems werden künstlich erzeugt, um vernetzte Rechnersysteme zuverlässiger und ausfallsicher zu machen.
- Das dazugehörige Forschungsprojekt erforscht die Steuerung von Drohnen mit Hilfe des Konzepts Organic Computing.
Das hört sich so semibekloppt an.
Ja, es ist richtig, dass man versucht, Drohnenschwärme nach dem Prinzip von Fisch- und Vogelschwärmen zu organisieren. Was nicht so ohne weiteres funktioniert, weil es Fischen und Vögeln einfach gar nichts ausmacht, wenn die sich im Schwarm mal anrempeln, und das bei denen auch ständig vorkommt, Flugzeuge und Drohen davon aber abstürzen können. Aber es ist tatsächlich ein interessantes und spannendes Thema.
Nur: Mit Prinzipien der DNA und des Hormonsytems hat das eigentlich nichts zu tun. Man verwendet da gern Verfahren, die als „evolutionäre Algorithmen“ bekannt sind, und das vielleicht verwechselt. Was eine Drohne mit DNA und deren „Prinzipien“ anfangen können sollte, erschließt sich mir nicht.
Ich finde vor allem etwas anderes frappierend: Sie reden von Ausfallsicherheit. Im Deutschen gibt es das Problem, dass security und safety beide „Sicherheit“ heißen, man unter „Cybersicherheit“ nur die Security versteht. (Eigentlich gar nichts, denn besonders im Deutschen sind Begriffe, die mit Cyber- anfangen, in der Regel Laienblabla.) Safety und Security in einer Konferenz unter „Sicherheit“ zu mischen ist untrügliches Laienmerkmal. Denn mit Security hat das hier gar nichts zu tun.
Wie Kryptographie das Internet (nicht) sicherer macht
Prof. Dr. Haya Shulman (Goethe-Universität Frankfurt)
- LOEWE Spitzenprofessorin an der Goethe-Universität Frankfurt im Fachbereich Informatik
- Leiterin der Abteilung „Cybersecurity Analytics and Defences“ (CAD) des Fraunhofer Instituts für Sichere Informationstechnologie (Fraunhofer SIT)
- Gewinnerin des Deutschen IT-Sicherheitspreises 2021 der Horst-Görtz Stiftung
Über deren oberflächliches Geschwätz und deren Gelaber mit Allgemeinplätzen hatte ich neulich schon mal was.
- Cyberangreifer nutzen häufig konzeptionelle Schwachstellen in der Internet-Infrastruktur, um Nachrichten abzuhören, Phishing zu betreiben, Zertifikate zu fälschen etc.
- Kryptografische Protokolle sollen die Sicherheit der Nutzer im Netz erhöhen und werden weltweit standardisiert eingesetzt.
- Tatsächlich ist die Abschaltung dieser Protokolle für Cyberangreifer aber einfach möglich. Statt einer Verbesserung wird dadurch die Sicherheit tatsächlich reduziert, da den betroffenen Nutzern ein falsches Gefühl von Sicherheit vermittelt wird.
Die ersten beiden Punkte sagen einfach gar nichts. Leeres Blabla ohne Inhalt.
Der dritte Punkt ist schlicht falsch und Schwachsinn.
Ja, es gibt/gab diese sogenannten „downgrade attacks“. Das waren aber keine Schwächen der Kryptographie selbst, sondern ordinäre Konfigurations- und Programmierfehler. Die Aussage, dass die „Abschaltung dieser Protokolle [der kryptographischen] einfach möglich“ wäre, ist falsch, grober Blödsinn. Bei manchen, heute meisten Protokollen kann man das gar nicht abschalten, oder ist es so vorkonfiguriert, dass man es nicht mehr abschalten kann.
Es gab mal Programme, und gibt sie noch, die erst versuchen, eine Verbindung verschlüsselt aufzubauen, und wenn das nicht geht, dann eben unverschlüsselt. Beispielsweise bei SMTP. Man nennt das „opportunistische Verschlüsselung“, weil eine Verschlüsselung, die nur verwendet wird, wenn es halt geht, immer noch besser ist, als gar keine. Sie wiegt einen nämlich nicht in einer falschen Sicherheit, wie die Dame da blubbert, sondern schützt zu einem gewissen Maß gegen rein passive Mithörer. Und das sind die meisten. Für eine Downgrade Attacke muss der Angreifer aktiv eingreifen können, einen sogenannten man-in-the-middle-Angriff fahren können. Und das ist dann schon technisch und rechtlich gar nicht mehr so einfach. Das sind dann ganz andere Angriffe, und sie werden nur ungern gemacht, weil sie eine ganz große Gefahr für den Angreifer bergen: Man kann sie detektieren.
Das Problem liegt in der Regel damit nicht in den Protokollen, sondern in nachlässiger (oder zu komplizierter) Konfiguration. Man kann einem Mail Relay wie postfix durchaus beibringen, dass es Mails allgemein oder an bestimmte domains nur verschlüsselt überträgt. Und wie das Zertifikat geprüft wird. Postfix hat dafür eigene Konfigurationsparameter und Tabellen, und wenn man die richtig einsetzt und konfiguriert, dann verhindern die das auch. Macht nur fast keiner, habe ich aber schon oft empfohlen, dass man in Firmenverbänden, Kooperationen oder Konzernen mit verschiedenen Firmen die Tabellen entsprechend setzt, dass die untereinnander nur mit den bekannten relays und mit durchgesetzter Verschlüsselung kommunizieren. Das ist auch kein Hexenwerk, das steht nämlich in der Dokumentation.
Etwas diffiziler war ein Fehler aus der Frühzeit der SSL-/TLS-Verschlüsselungen. Da haben sich nämlich beim Verbindungsaufbau beide Seiten auf die beste Verschlüsselung geeinigt, die beide können. Wieder ein opportunistischer Ansatz. Dummerweise gab es zu Debugging-Zwecken auch die Dummy-Verschlüsselung, die formal zwar als Verschlüsselung lief, die Daten aber nicht verschlüsselt hat, weil man das zum Testen und zur Fehlersuche brauchte. Man konnte dann beim Verbindungsaufbau eingreifen und das so manipulieren, dass die eine Seite zur anderen sagte, Ja, ich will verschlüsseln, aber ich kann nur diese Dummy-Verschlüsselung, sonst nichts. (Also den Crypto-Tanz zu machen, aber die Daten unverschlüsselt durchzuschieben, wie Geldtransporter-Cabrio, aber formal Geldtransporter gefahren.) Und dann hat der andere gesagt „Gut, dann machen wir das so“, und obwohl beide Seiten formal gesehen eine Verschlüsselung gewählt hatten, gingen die Daten zwar in das Verschlüsselungsprotokoll eingebettet, aber unverschlüsselt über das Netz, weil man die Verschlüsselungsart gewählt hatte, die mit den Daten einfach gar nichts macht.
Ja, das war mal so.
Das ist aber längst bekannt und dadurch abgefangen, dass man in allen Programmen, die TLS verwenden, einstellen kann, welche Chiffren man akzeptiert, oder die Kategorie wie „stark“ wählt. Stichwort: Cipher Suite. Das sollte es bei aktueller Software (= der letzten Jahre) eigentlich nicht mehr geben, dass man ohne absichtliche Schlechtkonfiguration unbemerkt in solche Nicht-Verschlüsselungen rutscht.
Und auch bei Verfahren, die nicht auf TLS beruhen, etwa ssh, gibt es solche Einstellungen.
Das war also mal bei manchen Protokollen so, dass man die durch die ein oder andere Downgrade-Attacke abschalten konnte, wenn man nicht sachkundig konfiguriert hat (was zugegebenermaßen mangels guter Dokumentation nicht immer einfach und erkennbar war), das ist aber eigentlich kein Problem der Protokolle selbst, sondern schlecht programmierter oder konfigurierter Anwendungssoftware, und das sollte es auch eigentlich nicht mehr geben.
Eine solche Aussage ist also schlicht falsch. Die Dame scheint ebenfalls Laie zu sein, und das dann mal irgendwo gelesen zu haben. Und dass man im Raum Darmstadt in der IT Sicherheit Quotenfrauen hat, die als Spitzenprofessorin ausgegeben werden und nicht wissen, wovon sie reden, oder auch gar nichts sagen können, das hatten wir ja früher schon einmal. Bei Fraunhofer hat die quotenbegünstigende Inkompetenz ja schon Tradition. Und wenn man von öffentlichem Geld lebt, ist die political correctness sowieso am wichtigsten.
Manipulierte Ausweisdokumente – Wie gefälschte Lichtbilder erkannt werden können
Prof. Dr. Christoph Busch
- Professor für System Development am Fachbereich Informatik der Hochschule Darmstadt
- Principal Investigator am Nationalen Forschungszentrum für angewandte Cybersicherheit ATHENE in Darmstadt
- Mitgründer und Vorstand der European Association for Biometrics
Und der meint
- Identitätsdokumente (Pass, Personalausweis, Führerschein) sind Vertrauensanker in vielen sicherheitskritischen Prozessen
- „Morphing Angriffe“ und andere Manipulationen von Lichtbildern bedrohen diese Funktion. Eine relevante Anzahl von Morph-Pässen ist bereits im Umlauf.
- Die Erkennung von manipulierten Lichtbildern ist daher dringend notwendig. Hierzu kombiniert die Forschung Merkmale aus Texturen, Rauschmustern oder Geometrien von Lichtbildern, um Fälschungen zu identifizieren.
Auch so ein Hobby-Thema zur Sicherung seiner Existenz in der öffentlich-rechtlichen Geldberegnung, aber ohne praktische Relevanz.
Ja, es gibt gemorphte Passfotos in Ausweisen. Es gibt auch komplett gefälschte, ausgetauschte.
Wer aber versucht, manipulierte Lichtbilder mit Algorithmen zu erkennen, der hat das Sicherheitsproblem nicht verstanden. Es ist nämlich nicht das Problemn, anhand von Texturen und Rauschmustern zu erkennen, ob ein Bild gemurkst ist, sondern dass es eigentlich gar keinen Weg geben dürfte, überhaupt ein gemurkstes Bild einzureichen. Das Problem liegt darin, dass jemand ein manipuliertes Bild bei der Behörde einreichen oder es nachträglich austauschen kann. Sowas darf erst gar nicht passieren.
Ich hatte vor zwei Jahren beschrieben, wie schwer es hier in Berlin war, an einen Termin für einen neuen Personalausweis zu kommen. Aber selbst im digital steinzeitlichen Berlin hat man dieses Problem gelöst: Man darf da nämlich kein eigenes Passbild mitbringen. Die haben dort einen eigenen Passbildautomaten, der das Bild direkt in deren Datenbank pumpt. Sieht zwar richtig übel aus, weil die als Beleuchtung so ganz billige LEDs mit miserablem blaulastigem Farbspektrum frontal verwenden, mein Personalausweisfoto deshalb auf halber Strecke zwischen Verbrecherfoto und Leichenfoto nach fortgeschrittener Liegezeit liegt, und ich darauf 20 Jahre älter als mein Geburtsdatum aussehe, aber die Möglichkeit, das Bild zu manipulieren, hatte ich – ohne Angriff auf deren Infrastruktur – nicht mehr. Und das ist genau der Punkt. Man darf keinen Ausweis auf Daten aus unbekannter Quelle ausstellen. Und der Ausweis als solcher muss fälschungssicher sein.
Das ist ja schön, dass die da Bildanalysen treiben. Aber das ist nicht „Cybersicherheit“. Wer auch nur Grundkenntnisse in Cybersicherheit hat, der würde erkennen, dass das Sicherheitsproblem hier nicht Morphing, sondern Authentizität heißt, und biometrische Ausweise nie auf eingereichten Fotos, sondern immer nur auf dem Körper der Person selbst beruhen dürfen.
Genau das Problem hatte ich 2005 schon gleich beim Start des biometrischen Reisepasses erkannt und beschrieben: In Dresden nämlich hatte man für den Reisepass ein Passfoto von mir akzeptiert, das der öffentliche Passfotoautomat aufgrund eines Softwarefehlers seitenverkehrt ausgedruckt hatte. Es war mir selbst auch erst zuhause aufgefallen, weil ich damals einen kleinen Pickel auf der Stirn hatte, und mir daran auffiel, dass der auf dem Foto auf der falschen Seite war. Im Prinzip das gleiche Problem: Man hat einfach irgendein Foto aus unbekannter Quelle übernommen, weil man nicht begriffen hatte, dass die Daten authentisch sein und deshalb gesichert erhoben werden müssen, und die Leute nicht einfach irgendein Foto vorlegen dürfen.
Wer hier mit Morphing argumentiert, und Morphing zu erkennen versucht, hat das Problem im Ganzen nicht verstanden und ist mit den Grundlagen der IT Sicherheit nicht vertraut.
Fazit
Hochschulschrott.
Da wurden die Professuren – wie von mir seit 20 Jahren beschrieben – mit irgendwelchen Kaspern besetzt, die dann politisch korrekt schwätzen und sich ihre Forschungsgelder einsammeln, aber IT Sicherheit nicht verstanden haben oder gar beherrschen.
Das noch garniert mit Quotenfrauen und organisiert von der Politik selbst, und fertig ist die Geschwätzveranstaltung, die uns auf internationaler Ebene unter Null zieht.
Und richtig gefährlich finde ich es dann, wenn diese Haya Shulman behauptet, Verschlüsselung bringe gar nichts, wiege nur in falscher Sicherheit. Solche Cryptoweiber habe ich schon einige erlebt. Eine behauptete mal, dass sichere Passworte möglichst kurz sein müssen, damit man sie sich merken kann und nicht unter die Tastatur schreiben muss. Dafür bekam sie die Promotion mit Auszeichnung und ging an ein IBM Forschungslabor. Frau halt.
Faktisch aber sind wir auf Hochschulebene einfach handlungsunfähig, was die IT Sicherheit betrifft. Das ist nur noch Geschwätz zwischen Forschungsgeldakquise, political correctness und Quotenfrauennotgeschwätz in verschiedenen Mischungsverhältnissen. Mit Sachkunde, Forschung, Können hat das alles nichts mehr zu tun. Und das wird man auf lange Zeit auch nicht mehr reparieren können, weil die Leute ja verbeamtet sind und völlig unklar wäre, wo kompetente Leute noch herkommen sollten (und wenn doch, warum sie dann zu uns gehen sollten).
Wir sind hier einfach auf einem Schwätzerniveau angekommen, in dem es keine Qualitätskontrolle mehr gibt.
Von oben gibt es nur noch das Interesse der political correctness, Frauenquote, gegen Hate Speech und sowas, Qualität egal.
Und von unten gibt es nur noch das Interesse, das eigene Dasein und den Zugang zu Geld mit möglichst wenig Aufwand zu sicheren. Kompetenz egal.
Dieser Staat ist dysfunktional. Alles nur noch so vorgetäuscht, nur noch der Form halber.
Für besonders gefährlich halte ich aber die Aussage, dass da erzählt wird, Kryptographie bringe gar nichts, sei eigentlich schädlich, weil sie in falscher Sicherheit wiege. Am besten erst gar nicht verschlüsseln. Während eine andere Quotenfrau erzählt, wie man mit KI gegen Hate Speech vorgehen solle.
Und der Steuerzahler zahlt den ganzen Mist.