Neue Befunde aus der Hirnforschung und Theorien zur Funktion des Lesen
Seit dem Symposium der tgm zum Thema »Lesen Erkennen« im Jahr 2000 sind neue Erkenntnisse hinzugekommen. Wie wir lesen, ist seit dem 19. Jahrhundert ein Rätsel. Die heutige Hirnforschung scheint dem Rätsel näher zu kommen. Der französische Neuropsychologe Stanislas Dehaene hat dazu ein faszinierendes Buch veröffentlicht, von dem ich hier berichte.
Das Auge ist ein relativ unvollkommener Sensor. Nur die Fovea (Stelle des schärfsten Sehens), die nur 15 Grad des Gesichtsfeldes abdeckt, hat eine sehr hohe Auflösung und ist der einzige Bereich der Netzhaut (Retina), der für das Lesen nützlich ist. Es zeigt sich, dass große Schriftgrößen nachteilig sind, da sie zu viel Platz auf der Netzhaut einnehmen. Außerdem sieht das »Auge« nur einen kleinen Ausschnitt und ist ansonsten »blind«. Im Fenster der Fovea ist die Buchstabenerfassung im Deutschen leicht nach rechts verschoben. Bei Lesern des Hebräischen oder Arabischen ist diese Asymmetrie umgekehrt.
Buchstaben können unterschiedlich aussehen, groß, klein, versal, kursiv, anders, alles kein Problem. Psychologen nennen das »Wahrnehmungsinvarianz«. Vermutlich gibt es unter den Neuronen Buchstaben-Detektoren. Linien, Bögen sind die erste Stufe der Erkennung. Die Worterkennung wird hierarchisch in Morphemen, den kleinsten Teilen der Sprache, vermutet. Die Erkennung verwandter Wörter wird angebahnt, man spricht von einem »Bahnungseffekt«. Grapheme werden zu Silben zusammengesetzt.
Die geschriebene Sprache wird als Nebenprodukt der gesprochenen Sprache angesehen. Beim Lesen wird der Text in der Regel auf einer tieferen Ebene des Gehirns »mitgesprochen« (Subvokalisation). Der erwachsene Leser greift gleichzeitig auf die gespeicherten Wörter zu und die Subvokalisation ist nicht bewusst. Dies gilt jedoch nicht für neue Wörter, die phonologisch erfasst werden müssen.
Wenn Schreibweise und Aussprache stark voneinander abweichen, wie im Englischen, dauert die Erfassung zunächst länger. Das Wort muss richtig erkannt werden, damit die richtige Aussprache abgeleitet werden kann, denn 26 Buchstaben reichen dafür nicht aus. Im Italienischen gibt es diese Schwierigkeiten nicht. Die ersten Schritte der Erkennung klingen einfach: 26 Buchstaben, die aus wenigen Strichen oder Bögen bestehen, 150 Grapheme. Aber der lexikalische Weg wird komplizierter. Verschiedene mentale Lexika werden aufgerufen: Wort, Graphem, semantische Informationen, die die Bedeutung des Wortes präzisieren, und schließlich die Aussprache werden miteinander verknüpft. Dank einer enormen Parallelverarbeitung geht das alles sehr schnell.
Die Worterkennungszeit bleibt bis zu 7 Buchstaben konstant. Falsch geschriebene Wörter werden in der Regel ignoriert, ohne dass sie ins vordere Bewusstsein gelangen (deshalb übersehen wir wohl auch so leicht Satzfehler). Diese aktive Dekodierung wird auch als »Wortüberlegenheitseffekt« bezeichnet.
Mit den bildgebenden Verfahren der funktionellen Magnetresonanztomographie können heute viele Energieströme sichtbar gemacht werden, wobei das vorhandene Blut als Kontrastmittel ausreicht. Dabei zeigte sich, dass die Aktivität beim Lesen bei allen Probanden an fast der gleichen Stelle stattfindet, nämlich im Bereich des Sulcus occipitalis. Dies gilt auch für Leser von Hebräisch und Chinesisch. Dabei scheint es keine Rolle zu spielen, in welche Richtung der Text gelesen wird.
Mit Hilfe von Elektroden wurde festgestellt, dass Wörter bereits 180 bis 200 Millisekunden nach ihrem Erscheinen auf der Netzhaut verarbeitet werden. Das linke und das rechte Auge sind zunächst anatomisch unabhängig. Innerhalb einiger Dutzend Millisekunden verlagert sich die gesamte Aktivität in die linke Gehirnhälfte, auch die Wörter, die ursprünglich in der rechten Gehirnhälfte (linkes Auge) ankamen. Die Signale kommen in der Region der visuellen Wortformen an. Interessant ist auch, dass rechts stehende Wörter schneller verarbeitet werden als links stehende.
Eine unterschwellige Worterkennung wurde festgestellt, indem ein Wort nur für 29 Millisekunden präsentiert wurde (das ist weniger als die Dauer eines Filmbildes). Wenn das Wort später wieder erscheint, ist die Erkennungsaktivität entsprechend reduziert.
Die Umwandlung von Buchstaben in Laute dauert 225 ms. Das Planum temporale, die Oberfläche des Schläfenlappens, kodiert die Laute der Buchstaben und ist für die gesprochene Sprache sehr wichtig. Die Bedeutung von Wörtern wird in einem klar abgegrenzten Netzwerk bestimmt. Buchstabenfolgen können verschiedene Bedeutungen haben, die in der »Konvention« gespeichert sind.
Es stellt sich die Frage, ob man die Wörter immer erst geistig ausgesprochen haben muss, bevor man sie versteht. Dehaene antwortet: Beide Lesarten existieren nebeneinander und konkurrieren miteinander. Häufige oder unregelmäßige Wörter haben direkten Zugang zu den semantischen Arealen des mittleren Temporallappens. Seltene, regelmäßige oder unbekannte Wörter erreichen zuerst die auditorischen Areale.
Die Lese-Neuronen reagieren bereits auf buchstabenähnliche Zeichen. Andere Neuronen können hochspezialisiert sein, beispielsweise nur eine Person erkennen (sog. Großmutterneuronen).
Manche Neuronen reagieren nur auf bestimmte Formen. Aus Bildern leitet Dehaene grundlegende Verbindungen ab, etwa die T-Form, das F oder das Y. Diese Verbindungen können verfeinert werden: Die Neuronen lernen.
Dehaene weist darauf hin, dass unser Gehirn ursprünglich nicht zum Lesen geschaffen wurde. Insofern ist das eine ganz wesentliche kulturelle Leistung. Die entsprechenden Hirnregionen waren ursprünglich für etwas anderes vorgesehen und wurden erst im Laufe der Evolution mit neuen Aufgaben versehen, man spricht von neuronalem Recycling.
Eine weitere Erkenntnis ist wichtig. Sind die Buchstaben zu weit voneinander entfernt (oder unregelmäßig), wird das Lesen schwieriger, weil mehrdeutiger. Ab einem bestimmten Abstand bricht der Lesevorgang zusammen. Das spricht gegen gesperrten Satz.
Stanislas Dehaene
Lesen
Die größte Erfindung der Menschheit und was dabei in unseren Köpfen passiert
470 Seiten
Knaus Verlag, München 2010
ISBN 978–3–8135–0383–8
24,95 Euro
Weitere Blogbeiträge, die Sie interessieren könnten
Lesen im digitalen Zeitalter
Nein, dieses Buch jammert nicht darüber, dass dank der Computer immer weniger gelesen wird. Ganz im Gegenteil. Das Unbehagen am digitalen Lesen ist unbegründet. Der Literaturwissenschaftler Gerhard Lauer geht dem auf den Grund und beginnt gleich mit dem uns Menschen innewohnenden Hunger nach Geschichten.
Checkliste für optimale Schrift
Bücher zum Thema Schrift gibt es nicht wenige. Möchte sich ein neues Werk vom Rest abheben, muss es mehr bieten, als Fachbegriffe bebildert zu erklären. Mit »Schrift. Wahl und Mischung«, einem fast 1.660 Gramm schweren Buch – das man so beispielsweise auch als kleines schwarzes Podest verwenden könnte – ist nun ein weiteres erschienen. Kann dieses Buch Neues bieten?
Gedanken zur Typografie bei und von Klaus Detjen
Sehr viel Erfahrung und Nachdenken über Typografie in kleinen Beiträgen und Miniaturen fasst Klaus Detjen zusammen. Typografie im »Detjen-puren Sinn« wird hier betrachtet, von Manutio bis Malarmé, beeinflusst von Künstlern, Literaten und Philosophen.
Schriftgestaltung in Zürich
Warum gestaltet jemand eine neue Schrift, wo es doch unzählige gibt, vor allem neue? Zum Broterwerb dient es eher selten. Aber das Entwickeln und Gestalten einer neuen, eigenen Schrift bietet dem Schriftgestalter interessante und vielfältige Erfahrungen. Rudolf Barmettler von der Zürcher Hochschule für Gestaltung berichtet aus seiner umfangreichen Erfahrung über die Ausbildung von Schriftgestaltern und über Aspekte rund um das Thema.
Von Ramsifikationen und Typofikationen Nr. 1
Die zehn Prinzipien guten Designs von Dieter Rams dienen der tgm im aktuellen Programm 2011/2012 zur Strukturierung der Vortragsreihe »Respekt und Übermut« zum Thema Verantwortung im Design. Diese »Ramsifikationen« lesen sich wie ein Leitfaden für verantwortungsbewusstes Design.