Lucius Adelno Sherman stellte in seinem Buch „Analytics of literature: A manual for the objective study of English prose and poetry“ fest, dass im elisabethanischen Zeitalter (1558 – 1603) der durchschnittliche geschriebene Satz 50 Worte lang war. Der Satz, den ihr gerade gelesen habt, inklusive Monsterbuchtitel, hatte 37. Damals waren Papier und Bildung teuer. Nur wer ordentlich den Swag aufdrehen konnte, war also in der Lage zu schreiben.
Ich hab‘ all‘ das was den Briten so gefällt. Yeah!
Leseverständnis war und ist etwas elitäres
Zeitgleich mit Sherman war der russische Autor Nikolai A. Rubakin aktiv, der 10.000 Texte auswertete, um daraus 1.500 abzuleiten, die seiner Ansicht nach die meisten Menschen verstanden. Beide kamen zu dem Schluss, dass folgende Parameter einem besseren Textverständnis weiter helfen:
- Kurze Sätze mit konkreten Begriffen
- Wenn sich Text an Sprachlichkeit orientiert, ist er leichter zu verstehen
Ab 1920 versuchten sowohl Vermarkter als auch Bildungsinstitutionen die Lesbarkeit ihrer Inhalte zu verbessern. Denn eine Bevölkerung, die Inhalte versteht, ist eine Bevölkerung, die sich auf verschiedene Situationen einstellen kann. Nicht ohne Grund ging im Mittelalter lange Zeit eher nix – zu wenig Sachbücher. Der Schlüssel dazu: Den Lesern für ihr jeweiliges Niveau angepasste Materialien zur Verfügung stellen, damit sie sich Schritt für Schritt auf ein höheres Niveau entwickeln können. Bereits 1923 entwickelten Bertha A. Lively und Sidney L. Pressey eine erste Formel, um die Lesbarkeit von Texten für Kinder zu bewerten. In den 1930ern fiel der Startschuss für eine Formel, die Texte für Erwachsene evaluieren sollte. Eine davon ist die Dale-Chall-Formel, die Texte mit einer Genauigkeit von 0.93 (mit 1.0 als bestmöglichem Ergebnis) in ihrer Komplexität bewerten kann. Die Zuordung folgt dabei dem Schulsystem der USA. Hier machen wir einen praktischen Ausflug zum englischen Eintrag der Formel und dem selben Eintrag in einfachem Englisch. Gleicher Inhalt unterschiedliche Aufbereitung.

Je besser Text verstanden wird, desto mehr profitiert die Gesellschaft
Wenn wir diese Formel auf die Gesellschaft als Ganzes anwenden, können wir herauszufinden, auf welchem Leseverständnisniveau sich große Teile der Gesellschaft bewegen. Genau das haben Donald Murphy, Melvin Lostutter und Wilber Schramm in den 1940iger, mit jeweils eigenen Versuchsanordungen, getan. Murphy brauchte zwei Ausgaben des Wallace’s Farmer heraus und reduzierte das Textniveau in der einen von der neunten Klasse auf die sechste, was ihm eine 43-prozentige Steigerung der Verkaufszahlen einbrachte und mehr Leser unter 35 Jahren. Lostutter untersuchte mehrere Zeitungen und fand heraus, dass die Inhalte im Schnitt fünf Jahre über dem Leseniveau des durchschnittlichen amerikanischen Erwachsenen im Jahre 1947 lagen.
The oral sentence is clearest because it is the product of millions of daily efforts to be clear and strong. It represents the work of the race for thousands of years in perfecting an effective instrument of communication.
– Sherman, Lucius Adelno
Schramm vervollständigte das Bild, in dem er 1,050 Zeitungsleser dazu befragte, wo sie in einem Text aussteigen: Reportage mit neun oder mehr Abschnitten verloren drei von zehn Lesern bei Paragraf Fünf. Ein kurzer Bericht verliert nur zwei. Die meisten Zeitungen in den USA haben sich von den Stufen 14 bis 16 inzwischen auf die Elf einpendelt, wo sie heute noch überwiegend bleiben. Ein interessanter Ausreißer: Was wir heute predigen, war damals noch quatsch: Zwischenüberschriften, Bildmaterial und Zitate hielten früher den Leser nicht im Text, sondern förderten den Ausstieg noch.
Do you even „Kritik der reinen Vernunft“, bro?
Das Dilemma, dem wir uns auch heute noch stellen müssen: Wir brauchen Texte, die uns fordern, um mit komplexeren Sachverhalten klarzukommen. Denn so haben wir die Option dieses trendige lebenslange Lernen auch tatsächlich zu leben, ohne irgendwann in die Niveauwand zu rasseln. Um das zu veranschaulichen, habe ich eine solche Wand für euch vorbereitet: Ein Auszug aus der „Kritik der reinen Vernunft“ von Kant, einem der Swag-Master der deutschen Sprache.
Ich lauf in den Debattierclub rein, jeder Blick trifft mich
Ist dieses nun nicht geschehen, und kann es auch, wegen der Untauglichkeit des gemeinen Menschenverstandes zu so subtiler Spekulation, niemals erwartet werden; hat vielmehr, was das erstere betrifft, die jedem Menschen bemerkliche Anlage seiner Natur, durch das Zeitliche (als zu den Anlagen seiner ganzen Bestimmung unzulänglich) nie zufrieden gestellt werden zu können, die Hoffnung eines künftigen Lebens, in Ansehung des zweiten die bloße klare Darstellung der Pflichten im Gegensatze aller Ansprüche der Neigungen das Bewußtsein der Freiheit, und endlich, was das dritte anlangt, die herrliche Ordnung, Schönheit und Fürsorge, die allerwärts in der Natur hervorblickt, allein den Glauben an einen weisen und großen Welturheber, die sich aufs Publikum verbreitende Überzeugung, sofern sie auf Vernunftgründen beruht, ganz allein bewirken müssen: so bleibt ja nicht allein dieser Besitz ungestört, sondern er gewinnt vielmehr dadurch noch an Ansehen, daß die Schulen nunmehr belehrt werden, sich keine höhere und ausgebreitetere Einsicht in einem Punkte anzumaßen, der die allgemeine menschliche Angelegenheit betrifft, als diejenige ist, zu der die große (für uns achtungswürdigste) Menge auch eben so leicht gelangen kann, und sich also auf die Kultur dieser allgemein faßlichen und in moralischer Absicht hinreichenden Beweisgründe allein einzuschränken.
Ein Satz mit 191 Worten und auf Leseniveau 9000 aus dem Jahre 1787 – nur so am Rande. Falls ihr euch den kompletten Ziegel geben wollt, hier geht es lang.
Neben dem eher gesamtgesellschaftlichen Ziel der Niveausteigerung, gibt es ein berechtigtes Interesse sich dem attraktivsten gemeinsamen Nenner zu beugen, um eine möglichst große Zielgruppe zu erreichen. Dazu gesellt sich noch die Feinkörnigkeit digitaler Zielgruppen, die jetzt mit wenig Aufwand leicht erreicht werden können. Das gibt Unternehmen, wie Buzzfeed und Heftig.co, die Macht unsere Synapsen so richtig schön einzulullen. In diesem hervorragend geschrieben Beitrag auf DRadio Wissen, lernt ihr, dass die klassische Hauptsatz-Hauptsatz-Hauptsatz-Konstruktionen der Reichweitenportale euch auch ein bisschen weich in der Birne machen und damit weniger handlungsfähig in der Wissensgesellschaft – was schlecht ist.
Zielkonflikte?
In diesem Zusammenhang: BILD arbeitet ähnlich, nech. Jetzt wo ich das Problem schön aufgedröselt habe: Menschen müssen gefördert werden, damit sie mehr Leseverständnis aufbauen und damit mehr und komplexere Texte verarbeiten können. Dagegen steht alles was mit Werbung oder eCommerce zu tun hat, denn die wollen nicht, dass wir komische Dinge tun, sondern schön brav auf Dinge wie „Dieses Kind hat seine Katze in den Trockner gesteckt. Was die Katze dann tut, wird euch umhauen“ klicken. Mangold einfrieren ist in diesem Zusammenhang übrigens auch ganz spannend, wenn ihr euch schnell das Spannungsfeld zwischen Texten, die uns weiterbringen und Texten, die der Maschine weiter helfen, veranschaulichen wollt.
These, Antithese, Synthese
Das Bild, dass ich jetzt gemalt habe, ist ein wenig Schwarz-Weiß geraten, doch das muss es nicht sein: Auch wenn Vereinfachung sich leicht für allen möglichen Schweinkram vor den Karren spannen lässt, kann Zugänglichkeit und Maschinenlesbarkeit genauso Menschen helfen, mehr über sich und ihr Umfeld zu lernen. Das Wikipedia-Portal Simple English Wikipedia ist ein hervorragendes Beispiel dafür. Was wir auch nicht vergessen sollten: Erst zu Beginn des 20. Jahrhunderts bekam die Analyse von Lesbarkeit überhaupt erst einen Schub und schon im 21. Jahrhundert müssen wir plötzlich dafür sorgen, dass Maschinen unser Geschwurbel auch verstehen. Das ist wenig Zeit, um so etwas komplexes wie Leseverständnis überhaupt zu untersuchen. Ich bin mir sicher, dass wir dazu eine Lösung finden werden. Doch jetzt genug aus der Fleischsackperspektive.
Die Möglichkeiten der deutschen Grammatik können einen, wenn man sich darauf, was man ruhig, wenn man möchte, sollte, einlässt, überraschen.
— Gedankenbalsam (@Gedankenbalsam) 24. Januar 2016
Lesbarkeit und SEO
Das tolle gleich vorweg: Das, was Peter da oben über Lesbarkeit geschrieben hat, gilt auch für die Suchmaschinenoptimierung. Allerdings wird im SEO-Bereich auch sehr viel Quatsch behauptet und verbreitet. Die Klassiker sind hier:
- „Ein Text muss mindestens 300 Wörter lang sein.“ – Ich möchte an dieser Stelle nicht auf Suchintention, Bedürfnisse des Suchenden und zu einem Text aneinander gereihte leere Worthülsen eingehen. Aber die Aussage ist Quatsch.
- „Die Keyworddichte sollte 3% betragen.“ – Immer wenn dieser Satz fällt durchfährt Karl Kratz ein heftiger elektrischer Schlag.
Ein Text kann nicht unter Heranziehen irgendwelcher Formeln als gut oder schlecht bewertet werden. Ein Text muss in erster Linie die Bedürfnisse und Erwartungen der Zielgruppen / Personas befriedigen. Tut er das nicht, ist der Text schlecht. Egal, ob ein Tool etwas anderes sagt. Wirklich!
Der Lesbarkeitsindex „Flesch-Reading-Ease“
Jetzt sind Tools, die die technische Seite von Texten analysieren, natürlich nicht per se schlecht oder unbrauchbar. Als aufmerksamer Leser hast du jetzt bestimmt bemerkt, dass ich „technische Seite von Texten“ geschrieben habe. Wieso? Weil ein Tool eben nur die technische Seite, eine mathematische Metrik, beleuchten kann. Beim Flesch-Grad sind das:
- Wie lange sind die Sätze im Text im Schnitt? Je länger ein Satz, desto schwerer ist die Lesbarkeit.
- Was ist die durchschnittliche Silbenanzahl pro Wort? Je länger Wörter sind, desto komplexer sind sie zu lesen, desto schwerer ist die Lesbarkeit.
Die Flesch-Formel für die deutsche Sprache (deutsche Worte sind im Schnitt länger als beispielsweise englische) sieht dann so aus:
FRE = 180 – ASL – (58,5 * ASW)
ASL: Average Sentence Length, durchschnittliche Satzlänge
ASW: Average Number of Syllables per Word, durchschnittliche Silbenanzahl pro Wort
Die Textlänge oder die Nennung von bestimmten Begriffen in einer definierten Häufigkeit spielen überhaupt keine Rolle, wenn es um die Lesbarkeit eines Textes geht.
Um das Ergebnis dieser Formel (für die Nicht-Mathematiker: da kommt eine Zahl raus) bewerten zu können, gibt es diese Tabelle (Wikipedia):
Und was hat das mit Suchmaschinen zu tun?
Es wird immer mal wieder behauptet, dass Google diese Formel für die Gewichtung von Inhalten und eben auch zur Berechnung der Rankings herzieht. Wirklich daran glaube tue ich nicht. Ich bin mir relativ sicher, dass Google hier ausgefuchstere Formeln und Metriken nutzt. Und ganz sicher nicht nur die eine, sondern – wie immer – eine Kombination aus mehreren.
Allerdings: Verzichtest du auf Schlangensätze und nutzt keine Wortmonster (okay, wenn du eine Dampfschifffahrtskapitänsmützenreinigung betreibst hast du ein Problem), dann steigert das die Nutzerfreundlichkeit. Wenn du dann auch noch der Grammatik mächtig bist und Rechtschreibfehler vermeidest, wird das zu positiven Nutzersignalen führen.
Nie vergessen solltest du aber, dass gute Inhalte nicht nach einer Formel geschrieben werden können. Neben Text gehört hier auch eine ordentliche Textstruktur und weitere Inhaltselemente (Bilder, Videos, …) dazu.
Wenn du das WordPress SEO Plugin von Yoast nutzt, bekommst du übrigens eine Auswertung von untere anderem der Flesch-Reading-Ease Formel. Beachte aber bitte den Artikel zur WordPress SEO-Ampel von Yoast und übertrage ihn auf die Lesbarkeit deines Artikels 😉
Ich und Dominik danken für die Aufmerksamkeit, noch mehr von Herrn Horn gibt es hier. Zu mehr Peter-Content geht es da lang.
P.s.: Wer mir Style & das Geld komplett auf Kant umbaut, kriegt ein Bier spendiert.