Deep Fake
Amüsant gemacht, aber so gefährlich.
Schönes Video zum Stand der Deep Fakes:
The morphic face. pic.twitter.com/Y4sWTv0TSU
— Brian Roemmele (@BrianRoemmele) November 18, 2022
Ist natürlich lustig und man kann trefflich wetteifern, wer die meisten erkennt. Und es würde mich außerordentlich interessieren und hätte vielleicht sogar gewissen Forschungswert, wie so ein Video auf Leute wirkt, die unter Gesichtsblindheit leiden, also Gesichter nicht erkennen können – ob die die Veränderungen wahrnehmen. Um vielleicht umgekehrt die Frage zu beanworten, wie Menschen das eigentlich machen, aus so geringen Unterschieden trotzdem sofort Individuuen identifizieren zu können.
Der Punkt ist aber: Zumindest auf den ersten Blick und bei flüchtigem Hinschauen und mit TikTok-Auflösung sieht man da keine Fehler mehr. Man erkennt es halt deshalb als Fake, weil der ständig wechselt und es zuvor sogar dazusagt, hier wird ja ein Spaß draus gemacht. Es zeigt vor allem, dass das jetzt in der Öffentlichkeit angekommen ist und mit normalen PCs von zuhause aus geht. Möglicherweise, da bin ich jetzt nicht auf dem aktuellen Stand, sogar in Echtzeit. Ich habe schon Videos gesehen, in denen Leute in Echtzeit, in Videochats, Anime-Figuren dargestellt haben, aber die können und sollen ja künstlich aussehen.
Wenn man sich jetzt aber vorstellt, dass da ein Video rumgeht, in dem etwa Donald Trump oder Wolodymyr Selenskyj ausfällig werden oder ein Vladimir Putin im Suff Schräges vom Krieg erzählt, oder auch ein Prinz Andrew ein Geständnis ablegt oder der tagesaktuelle britische Premier irgendeinen Blödsinn erzählt oder den Russen den Krieg erklärt, dann kann das ziemliche Folgen haben.
Das kann es auch, seit es hier in Deutschland üblich ist, schon für ungehörige Sprache strafverfolgt zu werden, Hausdurchsuchung, Beschlagnahme, Knast. Da muss man nur einen DeepFake von irgendwem anfertigen und im Netz rumgehen lassen.