Asperger und das Hören
Eine weitere Leserin mit Asperger hat mir geschrieben und die Zuschrift der gehörlosen Aspergerin kommentiert.
“Ich könnte mir aber vorstellen, dass ein Asperger mit Gehörlosigkeit weit besser klar kommt als andere, ihm weniger „fehlt” ”
Nein. Ich bin Aspie (atypische Form). Und allen Aspies die ich kenne geht es genauso wie mir: Das Akustische ist wichtiger als das Sehen, bei manchen ist es nur eine Tendenz, bei manchen sehr ausgeprägt.
Ich vermute, u.a. deshalb, weil wir Probleme haben, Gesichter zu lesen.
Das mit den Gesichtern war mir bekannt, das haben mir schon einige geschrieben.
Wer mein Blog liest, weiß, dass ich dazu neige, das Gehirn als eine Art Computer mit organisch gewachsener Architektur ansehe, in dem die einzelnen Funktionseinheiten weitgehend unabhängig und unkordiniert ihre Funktionen ausüben und das Ergebnis dann irgendwie zusammenrühren.
Mir ist – gerade vor dem Hintergrund Feminismus – schon häufig aufgefallen, dass es da in der Kommunikation – eigentlich egal ob mündlich-akustisch, mündlich mit kompleter Gestik und Mimik, schriftlich oder wie auch immer – mehrere Informationen gebündelt übertragen werden, und Menschen diese unterschiedlich wahrnehmen, vor allem Männer und Frauen. Während Männer oft (auch nicht immer) auf die Sachinformation, die rationale Aussage achten ist für Frauen meist die emotional-soziale Huckepack-Information wichtiger, und deshalb reden Mann und Frau auch häufig aneinander vorbei, weil sie sich auf verschiedene Tonspuren fokussieren. Es gibt so einen blöden alten Witz, der das aber eigentlich ziemlich gut beschreibt (ich glaube, das hatte mal irgendein Psychologe oder Paartherapeut irgendwo gesagt, um das Problem zu beschreiben):
Er zu ihr: Kannst Du mir nicht einmal eine klare Antwort auf eine Frage geben?
Sie: Du liebst mich nicht mehr…
Sie reden völlig aneinander vorbei, weil auf verschiedenen Tonspuren.
Das Gehirn betreibt da wohl eine Parallelverarbeitung, nämlich gleichzeitig die Sachinformation und die Emotional-/Sozialinformation auszuwerten, und das Ergebnis dann in unterschiedlichen Mischungsverhältnissen und Gewichtungen zu verarbeiten.
Das passiert eben auch optisch, nämlich über den Gesichtsausdruck, die Mimik und Gestik. Deshalb geht es nicht nur darum, was jemand sagt, sondern auch, wie er dabei schaut. Würden wir jemandem einen Gebrauchtwagen abkaufen, der dabei so ganz dreckig grinst?
Es dürfte sogar auch optisch-akustisch simultan funktionieren, denn im Kino spielt ja die Musik dazu eine ganz enorme Rolle. Man findet ja ab und zu auf Youtube solche Videos, in denen man bekannte Szenen aus bekannten Filmen mit völlig anderer Musik unterlegt hat, die dann auf einmal völlig anders wirken, etwa Der Weiße Hai wie ein nettes Picknick. Man kann auch wirklich alles ins Lächerliche oder Harmlose ziehen, in dem man, wie es die Benny-Hill-Show vorgemacht hat, alles mit Yakety Sax unterlegt. Irgendwo lief mal der epische Kampf zwischen Darth Vader und Luke Skywalker mit Yakety Sax, und sofort sind das nur noch zwei Kasper.
Mir ist oft aufgefallen, dass nicht nur, aber besonders Frauen oft plappern und schnattern, weil die normale, belanglose Kommunikation nur als Dummy, als Trägerwelle für die Emotionalsynchronisation dient.
Bei manchen Leuten, und das ganz besonders bei Ursula von der Leyen, fällt mir auf, welchen Lärm die auf der Emotional-/Sozialspur machen, und wie unecht, verlogen, falsch das wirkt, wenn Sachinformation und die Sozialspur so überhaupt nicht zusammenpassen. Gerade bei von der Leyen fällt mir dieses permanente Wundstarrkrampf-Grinsen auf, ihre Dauergrimasse, diese Dissonanz, wenn sie etwas ernstes sagt und dazu dreinschaut, als würde man einer Sechsjährigen auf dem Kindergeburtstag gratulieren. Bei Polizeibehörden wie dem FBI und Geheimdiensten gibt es Spezialisten, die bewerten sollen, ob jemand lügt oder die Wahrheit sagt. Die achten darauf, ob das, was man sachlich sagt, mit der Sozialspur über Gestik, Mimik, Intonation und so weiter übereinstimmt oder nicht.
Es ist bekannt, dass Frauen Gesichtsausdrücke und die Emotionen dahinter schneller und zuverlässiger erkennen als Männer. (Dafür verstehen, so möchte ich anmerken, Männer dann schneller und zuverlässiger, warum jemand sauer ist.) Eine Kommunikationstrainerin, die ihre Dienste für Teams anbietet, sagte mal in irgendeiner Talkshow, dass sie, wenn eine Gruppe Männer zu ihr in ihre Trainingsveranstaltung kommt, nach zwei Sekunden weiß, wer da der Chef ist, noch bevor die irgendetwas gesagt haben. Schon die Art, sich zu bewegen. Bei Frauen wisse sie es oft am Ende der Veranstaltung immer noch nicht.
Das dürfte zwar nicht identisch, aber doch eng verwandt sein mit der Fähigkeit, Gesichter zu erkennen, nicht als Ausdruck, sondern als Identität, Individuum, und der Unfähigkeit, also der Gesichtsblindheit oder Prosopagnosie. Denn beides ist Gesichtererkennung im Rahmen der Sozial- und Rudelfunktion.
Und ich habe nun die Überlegung, die Hypothese, dass Autisten mit dieser Auswertung dieses zweiten Kommunikationskanals, der offenbar an anderer Stelle im Gehirn stattfindet, als der sachliche Teil, irgendeine Veränderung oder Einschränkung haben. Oder vielleicht übersteuern und das als unangenehmen Lärm empfinden. Vielleicht das, was mir an Ursula von der Leyens Kriegserklärungsdauergrinsen als unangenehm auffällt vielfach übersteuert. Bei manchen. Es gibt Autisten, die sagen, dass sie Gesichtsausdrücke nicht lesen können. Und es gibt solche, die eine Reizüberflutung erleben. Mir schrieb mal eine, die an einer Konferenz zur teilnehmen konnte, weil ihr Freund ihr eine „Bedienungsanleitung” aufs T-Shirt gedruckt hatte, wie dass man sie nicht berühren sollte, weil sie sonst „einfriert”. Gibt es zwei Richtungen von Autismus, das Unter- und das Übersteuern? Oder sind beides Symptome derselben Ursache?
Oder anderes gefragt: Sind Autisten, ähnlich wie die Frau, von der auf 3sat berichtet wurde, deren Amygdala ausgefallen ist, ein wesentlicher Schlüssel zum Verständnis des Gehirns, weil Funktionen getrennt sind, die normalerweise verschmischt sind und nicht getrennt voneinander untersucht werden können?
Eine interessante Frage wäre: Kann sich Autismus in seinem Grad, in seiner Stärke im Laufe des Lebens ändern? Kann jemand einen Autismus nachträglich, durch Unfall, Krankheit, Hirnoperation usw. entwickeln? Oder gibt es nur konstante Fälle?
Zwar kann ich ein Gesicht “scannen”, die Gesichtszüge, die einzelnen Merkmale, so exakt daß ich Schauspieler wiederekenne die ich seit Jahrzehnten nicht mehr gesehen habe und die dann in irgendeiner Nebenrolle in einem aktuellen Film plötzlich wieder auftauchen, völlig verändert – ich erkenne sie sofort und weiß aus welchem Film. Aber die Mimik eines Gesichts, da sehe ich oft nicht viel. Comics sind daher genial, da ist die Mimik immer sehr übertrieben .
Also, mit Deinem Gesicht kann ich nicht viel anfangen wenn wir reden, aber Deine Stimme dagegen kannst Du nicht verstellen. In einer Stimme höre ich alles raus, was im andren Menschen vorgeht; auch Nuancen die normale Leute gar nicht mitkriegen. Und ich höre es *sofort* wenn jemand den Mund aufmacht wie er drauf ist, und auch sobald sich was ändert. Ich kann mir Geräusche auch extrem gut einprägen, auch nach Jahrzehnten kann ich sie noch abrufen (ohne sie in der Zwischenzeit gehört zu haben),
wenn ich sie seinerzeit oft genug gehört habe.
Das würde meine Vermutung bestätigten, dass Autismus eine irgendwie geartete Anomalie in der Wahrnehmung auf diesem zweiten, diesem Emotional- und Sozialkanal ist. Und bei der Frau, die mir hier schreibt, habe ich den Eindruck, dass sie da optisch unter- und akustisch übersteuert. Aber nur so weit, dass sie da nur sehr empfindlich ist, aber noch nicht an einer Reizüberflutung leidet. Als wäre der „Vorverstärker” hier nur etwas höher eingestellt.
Wenn man versteht, wie KI-Systeme funktionieren und dass sie übertrainiert sein könne, überkennen, könnte man rückwärts zu der Überlegung kommen, ob die Sozialfunktionen auf der Musterkennung durch neuronale Netze (was heißt „neuronal” – es ist das Gehirn) über- oder untererkennen oder eben ihre Ergebnisse zu stark oder zu schwach in das einsteuern, was wir für Bewusstsein halten. Ich hatte das ja angesprochen, dass wir nicht nur die bewusst wahrnehmbaren Sinnesorgane haben und damit merken, ob wir etwas sehen, hören oder schmecken (anders eben Synästhetiker, bei denen möglicherweise diese Zuordnung und Trennung nicht funktioniert), sondern auch die Wahrnehmung über die Einkopplung aus anderen Gehirnteilen, die wir (oder jedenfalls ich) nicht als solche „merken”. Trotzdem muss da ja irgendeine Querverbindung, eine Einkopplung bestehen. Und die könnte zu stark oder zu schwach ausfallen.
Ich habe mitunter schon überlegt, ob sowas vielleicht bei mir selbst, allerdings in viel, viel geringerem Maße als bei Autisten vorliegt, weil es mir immer wieder mal negativ auffällt, wenn Leute mich neben dem, was sie sagen, durch Gestik, Mimik, Theatralik „anschreien”, solchen Emotionallärm verursachen, als Emotionalsirene auftreten. Mir fällt sowas auf, weshalb ich beispielsweise Ursula von der Leyen als ziemlich abstoßend und verlogen auffasse.
Ich habe es allerdings auch schon gegenteilig, nämlich positiv gesehen. Lisa und Lena, die Zwillinge. Ich hatte mir die mal angesehen, um mir zu überlegen, warum die eigentlich so beliebt sind, so viele Follower haben. Sie sind virtuos in Mimik und Gestik, und sprechen diese Sprache nicht nur sehr gut, sondern haben als Zwillinge so einen Spiegeleffekt, der sie nicht nur verdoppelt, sondern eine Interaktion gleich mitliefert. Sachlich sagen sie eigentlich nie etwas, und in den meisten ihrer Videos machen sie ja nicht mal die Tonspur, die wurde da von der App vorgeliefert. Eigentlich haben sie ja in vielen Videos gar nichts anderes gemacht, als eine vorgegebene akustische Situation quasi mit Mimik und Gestik zu „untertiteln”. Eigentlich nur das, aber das verdammt gut. Eine Stimmigkeit und gute Erkennbarkeit hergestellt, zumal sie ja auch ziemlich hübsch sind. Quasi wie Gebärdendolmetscher, nur eben mit Mimik, eine Art Emotionaldolmetscher. Was durchaus verwandt ist. Ich war hier in Berlin mal auf einer Veranstaltung, in der ein Team von Gebärdendolmetschern übersetzte und sich alle paar Minuten abwechselte, es ist wohl ähnlich anstrengend wie normales Simultandolmetschen. Während fast alle da ziemlich sachlich und trocken gebärdeten, war eine dabei, die das irgendwie getanzt hat, bei der war da richtig Schwung und Jazz drin. Als ob die auf beiden Kanälen sendete, wie Mono und Stereo. Also ob die das geschafft hätte, auch die Sozialerkennung anzusprechen.
Meine Augen dienen mir meist lediglich zur Orientierung in einem Raum, z.B. damit ich nicht an die nächste Wand renne. Wobei ich auch da schnell an meine Grenzen stoße, wenn die Örtlichkeit nicht komplett überschaubar ist, z.B. eine Stadt. Ich hab Null Orientierungssinn und verlaufe mich dauernd, auch wenn ich mir eine genaue Zeichnung vorher mache und unterwegs Menschen um Hilfe frage. Mit Smartphones komme ich nicht klar – auch wieder weil die Augen nicht ausreichen: Weil da die Tasten fehlen, ein abstraktes Feld zu sehen nützt mir nichts, ich muß einen Knopf haben den ich fühlen kann. Darum kann ich unterwegs kein Google Earth benutzen. Inzwischen gehen meine Sozialarbeiter mit mir neue Wege ab beim ersten Mal, weil ich mich sonst meist verlaufe.
Auch das würde zu meiner Vermutung und Vorstellung passen.
Denn das räumliche Vorstellungsvermögen ist nun wieder ein gänzlich anderer Teil des Gehirns, da geht es ja nicht um das Soziale (es geht ja das Gerücht, Frauen könnten nicht gut einparken und kämen mit Stadtplänen nicht klar, ich habe aber eine Freundin, die in Sachen Stadtplänen und Landkarten und sie im Kopf zu behalten, deutlich besser ist als ich), aber auch darum, über die Augen Erfasstes auszuwerten, daraus Schlüsse zu ziehen und die Erkenntnisse in das „Bewusstsein” einzukoppeln. Anderer Teil des Gehirns, aber vielleicht gleiches Problem der Zusammenschaltung und Einkopplung.
Das würde auch die Probleme mit dem Smartphone erklären: Der optische Reiz funktioniert nicht. Der haptisch-taktile dagegen schon. Ich hatte sowas schon oft anhand von Unterhosen beschrieben. Frauen kaufen ihren Männern die Unterhosen, aber sie schaffen es nicht, sie sich einfach anzuschauen. Frauen müssen sie auspacken, befummeln, „begreifen”, und falschherum wieder in die Packung stopfen, um sich entscheiden zu können, ob sie die kaufen. Auch im Supermarkt müssen viele das Obst begrabbeln. (Gibt sogar extra eine Episode dazu im Film Tampopo.) Frauen sind Haptiker. Eigentlich sind Smartphones für sie nicht geeignet, sollte man meinen. Die Mädchen meiner Schulklasse strickten im Unterricht wie die Bekloppten. Sie sagten, sie könnten besser denken, aufpassen, lernen, wenn sie dabei was mit den Händen zu tun haben. Ich kann mir aber vorstellen, dass die haptische Stimulation durchaus zuträglich war.
Männer gucken lieber. Deshalb gibt es Playboy und Pin-Up-Kalender.
Alles Zwischenmenschliche passiert primär über mein Gehör. Überhaupt alles Emotionale, bis auf einige wenige Ausnahmen. Das geht soweit daß ich eine Art Fetisch für Geräusche in Filmen habe, also das Sounddesign in Filmen ist mir extrem wichtig, wenn das nicht stimmt, mag ich einen Film nicht.
Meine Lieblingsfilmgeräusche stammen alle das aus dem ersten Alien-Film:
Wenn die Türen sich schließen (später auch die Metalltüren die rund sind und sich kreisförmig zusammenziehen), wenn die Brennstäbe wieder reingedreht werden… .[Weitere Filme erklärt]
Auch das würde wieder zu meiner Vermutung passen, dass die Sinnesorgane unterschiedlich mit der sozialen Wahrnehmung, dem zweiten Kanal verschaltet sind. Optisch stark untersteuert, akustisch leicht übersteuert.
Frauen und Männer haben übrigens auch Unterschiede beim Asperger-Syndrom. Die Vorliebe für Analyse und Fakten haben wir alle gemeinsam, aber Männer bevorzugen z.B. oft Zahlen, während ich (typisch Frau) Zahlen und Technik nicht mag, aber nicht genug davon kriege historische Ereignisse zu analysieren und dort Muster und Gesetzesmäßigkeiten herauszuarbeiten. Freilich gibts auch Frauen die Zahlen und Technik mögen, nur sind sie selten – es nennt sich Biologie .
Der sachliche Bereich ist dominant.
Und völlig unwichtig sind die Augen bei mir auch nicht was das Emotionale angeht, ich liebe z.B. Muster (Fraktale, Google Earth-Aufnahmen u.ä.).
Auch das würde ich aber dem Sachlichen zuordnen.
Und dazu eine Studienreise in islamische Länder und die Besichtigung von Moscheen empfehlen. Denn die haben es ganz besonders mit solchen regelmäßigen Mustern, das gehört zu deren ästhetischen Standards. Übrigens ein Grund, warum ich in arabischen Ländern gerne mal an einer Moschee fotografiere. Die vielen Ornamente, Symmetrien, Reihen von Wasserhähnen, Reihen von Schuhen. Das müsste doch interessant sein.
Bei der Gelegenheit, unabhängig von Aspie, was zum Thema geschlechtsspezifische Unterschiede:
Bei der Analyse von Fraktalen ist mir aufgefallen, Frauen haben in der Regel ganz andere Motive wenn sie Fraktale erstellen – sowas wie bunte Blumen sind sehr beliebt… Männer bevorzugen oft eher abstrakte Motive und weniger Farbe, gern auch schwarz-weiß. In der Regel kann ich an einem Fraktal sehen, ob eine Frau oder ein Mann es erstellt hat, bevor ich mir den Namen ansehe (z.B. auf der Site Deviant Art). Manchmal lieg ich freilich völlig daneben. Dann frag ich mich immer, ob es interessant wäre, diese Person mal kennenzulernen
Erzähl das bloß nicht den Gender-Spinnern. Die hören das gar nicht gerne.
Nur schade daß ich Bilder nicht “hören” kann. Wie würde z.B. diese Landschaft klingen, wenn ich eine passende Synästhesie hätte?:
https://www.google.com/maps/@-32.5195996,120.4784383,31502m/data=!3m1!1e3
Ich hab ein paar Synästhesien, aber diejenige, die ich am liebsten hätte, fehlt leider – das ALLES einen Sound hat, was ich sehe
Wie eine Portion Schokoladencreme, die man mit dem großen Löffel und den Fingern an die Wand schnalzt.
Noch 2 Anmerkungen zu dem was Deine gehörlose Leserin Dir geschrieben hat:
“Autisten (Asperger, wie ich) lesen sowieso nur die reine Sachinformation in einem Text. Der Rest wird im Hirn nicht einmal abgespeichert, wozu auch? Ich persönlich nenne das dann Informationssondermüll. Raus damit aus dem Hirn.”
Stimme nicht nur voll zu, bei mir ist es noch radikaler: Bei mir kommt das Überflüssige erst gar nicht rein ins Hirn, ich skippe es beim Lesen. Und wenn ein Text nicht sehr schnell zur Sache kommt, ich also viel skippen muss, wird er abgebrochen. Einfach weil ich – aus Erfahrung – davon ausgehe, daß jemand, der schon am Anfang nur rumlabert, auch 30 Sätze weiter nichts zu sagen hat. Schon sog. “Einleitungen” in Zeitungsartikeln nerven mich, weil sie meist nur Gelaber sind die eine “Stimmung” erzeugen sollen. Auch eine Einleitung hat für mich bereits Informationen zu enthalten, anstatt eine “Stimmung” zu erzeugen (wenn ich eine “Stimmung” haben will, höre ich gottverdammtnochmal Musik).
Journalisten wird aber offenbar bis heute beigebracht, daß sie bei längeren Texten, besonders wenn Menschen geschildert werden, eine “Einleitung” machen müssen. <<rolleyes>
Mmmh.
Deine Leserin sagt auch noch:
“Übrigens: Wenn ich all den Mist den ich lese am Tag auch noch hören müsste, würde ich mich einweisen lassen!
Also: keine Melodien beim Lesen vorhanden und reine Sachinformationen aus einem Text entziehen.”
Ich bin *nicht* gehörlos, und *trotzdem* haben Texte beim – stillen – Lesen für mich ebenfalls keinerlei Sprachmelodie. Darum nervt ja der ganze überflüssige Ballast so, da quatscht jemand mich voll ohne daß es Informationsgehalt hat, das fühlt sich geradezu übergriffig an. Denn Äußerungen die Null Infos haben, manifestieren sich dann magischweise plötzlich durch fremde Stimmen in meinem Kopf, in der Tonart von aufdringlichen Radiosprechern die Werbung rausplärren. Da krieg ich solche Agro, nach kurzer Zeit will ich dem ernsthaft weh tun. Meine Idee dazu warum das so ist: Reine Infos haben deshalb keinerlei Sprachmelodie, weil sie im Grunde nicht mal eine bestimmte Sprache brauchen um transportiert zu werden. Informationen müssen lediglich im Gehirn dechifriert werden, und das machen Aspies automatisch, die sind Analyse-Maschinen. Auf welche Art diese Infos präsentiert werden, ist egal. Darum gibt es soviele IT-Guys unter den Aspies (und umgekehrt): Programmiersprachen sind reine Information. Klar können auch Codes geschwätzig sein, wenn jemand gewissenhaft alles auskommentiert anstatt es quick+dirty zu coden; aber sogar die Kommentare sind ja reine Information.
Das sehe ich allerdings deutlich anders.
Gute Rhetorik, Satzmelodie, ebenso wie Grammatik, auch der Genus, reichen gesprochene und geschriebene Sprache mit einer Art vorbereitenden Redundanz an, die das Verständnis erleichtert. Die Gender-Spinner kapieren das nicht. Bei Autisten ist es wohl eher so, dass sie diese Redundanz nicht verarbeiten können, sie aber wegen erhöhter Analysefähigkeiten auch nicht brauchen, und sie deshalb als nutzlosen Ballast empfinden.
Gute Rhetorik, gute Grammatik, gute Satzmelodie sind aber ungemein wichtig, wenn man einem allgemeinen Publikum, das nicht über diese Analysefähigkeiten verfügt, Informationen effizient übermitteln will. Auch in der Informatik verwendet man Redundanz in Protokollen.
In der Schule hab ich immer entsetzlich gelitten unter Mitschülern die beim Vorlesen den Text runterleiern, das ist für mich reine Folter ! Und bis heute bin ich bei Hörbüchern sehr pingelig, kaum ein Vorleser findet Gnade vor meinen Ohren.[…]
Deine gehörlose Aspie-Leserin kann also einerseits froh sein daß sie die ganzen schmerzenden Geräusche nicht hören muß (*falls* sie zu denen gehört, die darunter leiden würde), und ja, es *ist* unerträglich z.B. Politikern zuzuhören, wenn man die ganze Falschheit und Verlogenheit und Gleichgültigkeit usw. raushören kann, darum hör ich Politikern schon
lang nicht mehr zu. Wie sie so schön sagt, da verliert man den Verstand!Lieber lesen, das “reicht” schon. Gerade heute schönes Beispiel, wieder mal versucht mir die Merkel anzuhören – ich habs nicht ausgehalten. Es haben halt alle darüber geschrieben, über dieses “Interview”, also dachte ich, hör ich mal wieder rein. Das war ein Fehler!!
Oh, ja.
Das geht mir ähnlich.