Ansichten eines Informatikers

Die gerechten, antirassistischen Kameras

Hadmut
16.11.2024 21:46

Ich muss mich schuldig bekennen und eingestehen, falsch gelegen zu haben.

Oder so.

Ich hatte einige Artikel dazu geschrieben, warum der Blödsinn von den Kameras, die Schwarze nicht gut fotografieren, und für Weiße gemacht sind, genau das sind, nämlich feministischer Blödsinn, und Feministinnen schlichtweg nicht verstanden haben, wie eine Kamera funktioniert, siehe etwa hier und hier.

Kameras, klassische Kameras, werden nämlich überhaupt nicht auf Hauttöne eingestellt, sondern auf die „Mitte“ ihres Blendenumfangs. Klassisch haben die dynamikärmsten Filme, nämlich Diafilme (die noch dazu das Problem haben, dass man da nachträglich gar nichts mehr korrigieren kann, sondern sie nehmen muss, wie sie eben sind), nur 5 Blenden Umfang. Das macht, 25 = 32 einen Kontrastumfang von 100% bis 3%, und deshalb sind Kameras und Belichtungsmesser, seit es sie gibt, darauf eingestellt, genau in die Mitte zielen, also das, was sie an Licht messen, so zu legen, dass die genau in die (geometrische bzw. logarithmische und nicht lineare) Mitte zwischen 100 und 3 zu zielen, nämlich 100 / 22.5 = 17.68 &. Deshalb sind die Graukarten, die man kaufen kann, um ordentlich Belichtung zu messen, so eingestellt, dass ihr Grau 18% des Lichts reflektiert, und das erscheint uns genau mittelgrau, weil auch das Auge logarithmisch wahrnimmt, weil es ebenfalls einen Blendenumfang in dieser Größenordnung hat. (Gedruckte und abgezogene Fotos lagen früher bei etwa 3 bis 4 Blenden.)

Der geneigte Leser wird bemerken, dass ich hiermit eigentlich schon die gesamte Belichtungsnummer erklärt habe, ohne auch nur ein einziges Mal Hauttöne zu erwähnen oder einen Menschen zu fotografieren. Das glauben nämlich nur die Feministinnen, der ganze Foto- und Belichtungskram hat überhaupt nichts mit Hautfarben zu tun. Würde auch nicht, denn in den ersten hundertfünfzig Jahren der Fotografie wussten Kameras ja auch nicht, was vor ihnen steht. Wie hätte eine konventionelle Kamera einen Menschen von einem Haus oder einer Blume unterscheiden können?

Als ich noch Kind war, hat man oft auch noch gar nicht gemessen, weil nur teure Kameras Belichtungsmessung hatten (grobe Schätzeisen mit Selenzellen

Der Grund, warum das bisher so gut funktioniert hat, ist eher ein Zufall als eine Absicht: Viele Dinge der Natur wie grünes Gras, viele Blumen und auch eben die Haut weißer Leute liegt ziemlich nahe an diesen 18% Reflektion.

Was eigentlich völlig egal wäre, und überhaupt keine Rolle spielte, wenn man richtig fotografieren und eine sogenannte Lichtmessung machen würde, wie es richtig ist. Wenn man nämlich die Lichtmenge und nicht das Objekt misst. Weil dann nämlich so fotografiert wird, wie man auch sieht. Das kann man mit einem Handbelichtungsmesser machen, der eine Kalotte für Lichtmessung hat (die alten Belichtungsmesser der 50er Jahre hatten manchmal einen Plastikvorhang dafür). Oder, auch korrekt, indem man jemandem, den man fotografiert, eine der besagten Graukarten in die Hand drückt oder vor das Gesicht halten lässt, um eine Spotmessung auf die Graukarte zu machen. Dann ist die Kamera genau auf das Licht eingestellt, und die Haut wird genau so hell oder dunkel fotografiert, wie sie in Natura aussieht. Elementare Messtechnik. (Feministinnen kapieren schon das mit dem Logarithmus nicht. Logarithmen gelten in Gender Studies als frauenausgrenzend.)

Bis dahin hat es also immer noch nichts mit Hautfarben zu tun. Wenn man richtig fotografiert, wird jeder richtig abgelichtet, sei er nun Kaukasier oder Afrikaner, Telefon oder Blumenvase. Richtig gemessen, und das Bild passt.

Nun sind die meisten Leute aber zu faul oder kennen sich nicht genug damit aus, oder die Situation gibt es nicht her, und halten die Kamera einfach drauf und machen damit eine Objektmessung.

Und das geht systematisch schief, denn woher soll die Kamera wissen, ob wir eine weiße Fläche mit wenig Licht oder eine schwarze Fläche mit viel Licht sehen, denn sie erkennt ja nur, die Lichtmenge, die ins Objektiv kommt, aber weiß nicht, warum. Beispielsweise reflektiert ein schwarzer Stoff, etwa eine Hose, tagsüber sehr viel mehr Licht als eine weiße Hose bei Nacht. Die Kamera kann nicht sagen, ob es eine helle Fläche mit wenig oder eine dunkel Fläche mit viel Licht ist, die die gleiche Lichtmenge abgeben. Ihr kennt doch diese optischen Täuschungen in den Social media mit hellen und dunklen Karos und Licht, bei denen man nicht glauben will, dass die hellen die gleiche Farbe haben wie woanders die dunklen. Oder das Ding mit dem Kleid: Ist es Schwarz-Blau oder Weiß-Gelb? Genau das.

Die (einfache) Kamera ist so eingestellt, dass sie alles, worauf man hält, dann, wenn man die Belichtung nicht korrigiert, für eine 18%-Graukarte hält.

Und jetzt kommt der Zufall ins Spiel, dass solche Dinge wie Gras oder die Haut von Europäern zufällig bei ungefähr 18% liegen, und sich deshalb dieser Zufall und die Unkenntnis der Leute vom Fotografieren ausgleichen. Eigentlich fotografiert man falsch, aber es passt halt gerade, weil eben zufällig ungefähr 18%. Deshalb merkt es fast niemand.

Aber versucht mal, das einer Feministin zu erklären.

Nun schreibt mir ein Leser: Alles Quark von gestern.

Das Käseblatt SPIEGEL schreibt, dass die Chinesen den Afrikanern chinesische Handys andrehen, die Schwarze besser fotografieren können:

Die Macher von Tecno haben sich zudem noch etwas einfallen lassen: Sie haben die Handykameras angepasst. Die eingebauten Linsen können dunklere Hautfarben besser erfassen und abbilden, während die westliche Technik oft nur eine kontrastlose, schwarze Fläche zeigt. Außerdem sind die eingebauten Audiosysteme robuster auch bei hohen Lautstärken, weil viele Menschen in Afrika die Geräte als Lautsprecher nutzen. Außerdem hält der Akku der Geräte oft viel länger als bei Samsung oder Apple, in Gegenden mit unzuverlässiger Stromversorgung ein unschätzbarer Vorteil.

Ach, gar, es liegt an den Linsen.

Die Linsen könnten es besser abbilden, während die westlichen Kameras nur schwarze Flächen zeige.

Gut, das liegt natürlich auf der Hand, dass das irgendwie zusammengehört a) Fotografie nicht verstanden zu haben und b) beim SPIEGEL zu arbeiten.

Der Knackpunkt ist nämlich, dass moderne Kameras völlig anders arbeiten, nämlich

  1. kein Foto im herkömmlichen Sinne mehr machen, sondern kontinuierlich messen und den Bildsensor auslesen,
  2. KI-Systeme zur Motiverkennung haben,
  3. moderne Sensoren einen deutlich höheren Blenden- und Kontrastumfang haben, und bis zu etwa 10 bis 12 Blenden schaffen können,
  4. über die sogenannte HDR-Fotografie ihren Kontrastumfang drastisch erweitern können, indem sie kurz hintereinander mehrere Fotos mit verschiedenen Belichtungszeiten machen und die dann zu einem Bild zusammenmischen,
  5. moderne Handyfotografie ohnehin nicht mehr viel mit Fotografie zu tun hat, sondern da alles per Software zusammengemurkst wird, um die schlechten Objektive auszugleichen.

Ich erinnere daran, dass neulich Samsung damit aufgeflogen ist, bei Mondfotos zu bescheißen. Die hatten damit geworben, dass man mit ihren Kameras so toll den Mond fotografieren kann und die Bilder so scharf seien. Waren sie auch, aber nicht echt, denn wenn die Software ein Mondfoto erkannte, kopiert es aus der Software eine hochauflösende Version rein. Einer hatte Verdacht geschöpft und ein absichtlich unscharfes Foto des Mondes abfotografiert, und das Bild war trotzdem scharf. Wie die Abgassoftware deutscher Dieselhersteller.

Und dann geht das natürlich, der KI zu sagen, wenn sie Schwarze im Bild erkennt, soll sie die Bilder an den Stellen „anheben“ (Fachbegriff: Abwedeln).

Transsion baut die Smartphones spezifisch für den afrikanischen Markt, viele von ihnen werden nur dort verkauft, nicht einmal in China selbst. Inzwischen bietet der Konzern sogar einen Audiodienst an, ähnlich wie Spotify, speziell für afrikanische Musik. Er hat bereits mehr als 90 Millionen Nutzer. »Die Chinesen sind eindeutig besser darin, sich an die speziellen Bedürfnisse in Afrika anzupassen. Sie fragen nach, was gebraucht wird, während die westlichen Firmen sich auf schickes Design konzentrieren«, so Gichinga.

Das wird den Grünen gefallen.

Und bald wird man Quoten festlegen, dass auf jedem Foto mit Menschen mindestens 20% schwarz sein müssen, und die KI wird das umsetzen. Geht der Scholz zum Putin – zack, ist er schwarz.

Oder sogar abhängig von dem, der draufguckt. Dann wird man im Browser einstellen können, ob man die Leute in den Nachrichten schwarz oder weiß haben will, die KI macht es in Echtzeit.

Nur mit Fotografie hat das dann gar nichts mehr zu tun.