Liest das wer?

Die 62. Ausgabe von Websiteboosting veröffentlichte unter R-Leuchtungen! Teil 2 eine Anleitung, wie man das Leserengagement im Hinblick auf den Textumfang beurteilen und statistisch bewerten kann. Drei Tools kamen hierfür zum Einsatz: Google Analytics, Screaming Frog und die Software R.

Content Marketing ist Hype und das betrifft in erster Linie den textlichen Anteil. Mit verlässlicher Regelmäßigkeit wird der Warnhinweis mitgeliefert, dass Content Marketing kostet. Vor allem, wenn man “wertvollen” Content anzielt, der dem Nutzer einen deutlichen “Mehrwert” bietet. Und qualitätsvoller Content braucht Ressourcen, egal, ob er selbst erstellt oder beauftragt ist.

Eine ironische Zwischenbemerkung kann ich hier nicht unterdrücken. Anscheinend gibt es zwei Typen von Inhalten. Die, deren Themen dutzende Male von Dutzenden von Autoren*innen erstellt wurden. Gemäß dem etwas abgewandelten Bonmot Karl Valentins, dass eigentlich nichts Neues mehr unter der Sonne gesagt werden kann. Neu ist nur, dass es eine(r) sagt, der/die’s bis dato noch nicht sagte. Der andere Content-Typus? Das ist der, den man vergeblich sucht. Sozusagen die dunkle digitale Materie des Web.

Kommen wir wieder zum Thema: Wenn Content schon aufwändig zu erstellen ist, will der Unternehmer damit zweierlei: dass er gelesen wird und einen messbaren Effekt auf den unternehmerischen Erfolg hat. Zwar kann Content auch einen messbaren Effekt haben, wenn er nicht gelesen wird (z.B. durch SEO Effekte, die Besucher zur Seite führen). Aber gelesen werden will man doch, bitteschön, auch. Nur, tut’s auch einer? Und zwar mit angemessenem Engagement?

Mir geht es hier nicht um die technische Lösung, die Daten aus Google Analytics und dem Screaming Frog mit Hilfe der Statistiksoftware R auswertet. Kurz gesagt werden drei Daten aus zwei Quellen verarbeitet: der URL-Path, die durchschnittliche Besuchsdauer und die Zahl der Worte auf jeder Seite. Bei einer angenommenen durchschnittlichen Lesegeschwindigkeit von 220 Wörtern pro Minute, lässt sich anhand der Wortzahl pro Seite eine durchschnittliche Zeit angeben, die benötigt wird, den Artikel zu lesen. Abweichungen nach oben oder unten können dann statistisch ausgewertet werden.

Wie intensiv befasst sich nun der Nutzer mit dem Content wirklich?

Die Frage lässt sich so nicht direkt beantworten. Das ist den Autoren auch bewusst, die darauf hinweisen, dass sich ein Besucher auch bei geöffneter Seite mit anderem beschäftigen kann als mit dem Text. Sie weisen auch darauf hin, dass das geschilderte Verfahren den gesamten humanen Seiten-Text erfasst und nicht nur den Primary Content. Als Lösung verweisen sie auf die Selektion des betreffenden Textes des entsprechenden DOM Elements.

Weitere kritische Parameter, die das Leserengagement verwässern können

Bei aller Begeisterung über die technischen Möglichkeiten, die Screaming Frog mit API, Google Analytics und R bieten, bleibt die Frage, in welchem Umfang statistische Abweichungen von der durchschnittlichen ermittelten Lesedauer abweichen können, dürfen oder müssen. Hier ein paar ergänzende Überlegungen zu dem durchaus interessanten und lesenswerten Artikel:

Die Content-Länge als kritischer Faktor

Ich halte es für sehr wahrscheinlich, dass ein langer Text (> 1000 Wörter) oft gar nicht ganz gelesen wird. Ist der Artikel nach dem Prinzip der umgekehrten Pyramide verfasst, habe ich das Wesentliche schon nach vielleicht einem Textdrittel erfasst. Für längere Texte müsste ein Dämpfungsfaktor die zu erwartende Lesedauer reduzieren.

Nach Absprung: 0 Sek.

Besucher, die die Zielseite konsumieren und wieder aktionslos verschwinden, haben 0 Sekunden Besuchszeit. Blogbetreiber kennen die leidige Thematik. Ein HeartBeatTimer kann hier etwas Abhilfe schaffen, indem er nach einer angemessen Zeitfrist ein Ereignis auslöst und so auch Absprüngen einen Zeitverlauf zumessen kann. Weiteres in meinem Artikel zur Messung des Leserengagements.

Leicht lesbar – oder doch nicht?

Rudolf Flesch entwickelte auf Basis weniger Informationen für Texte (in europäischen Idiomen verfasst) den so genannten Lesbarkeitsindex. Er basiert auf der durchschnittlichen Satzlänge (Wortzahl pro Satz) und der durchschnittlichen Silbenzahl pro Wort. Texte mit einem Fleschwert unter 50 sind schwer bis sehr schwer zu lesen. Gut, die Empfehlung lautet ohnedies, einfach gut lesbare Texte für das Web zu schreiben. Ein Test auf Lesbarkeit schadet dennoch nie. Das WordPress-Plugin Yoast tut hier seine Meinung kund, oder man nutzt ein Portal wie leichtlesbar.ch. Ein anderer Punkt: Verwende ich eine bildreiche, rhetorische Sprache, die den Leser zum Nach-Denken animiert?

Typografisches Augenpulver?

Ein weiterer Aspekt betrifft die Typografie. Nicht alles lässt sich so gut lesen wie eine Überschrift in der BILD-Zeitung (rein physiologisch versteht sich). Weiße Schrift auf dunklem Grund, schwacher Schriftkontrast, der die Typen mit dem Hintergrund zu einem quasi farblichen Einheitsbrei verschwimmen lässt, zu kleine Schrifttypen usw. – all das kann das Lesen verleiden und die Besuchszeit verkürzen.

Make me think – Bilder und Videos auf den Seiten

Zu all dem kommt noch der nicht textliche Content. Bild und Infografiken stoppen den Lesefluss. Bilder werden betrachtet, interpretiert, auf den Text oder die Unterschrift bezogen. Noch mehr Zeit beanspruchen Videos – hier könnte man dann die Betrachtungszeit des Videos (Ereignissmessung!) von der gesamten Seiten-Besuchsdauer abziehen, wenn man das reine Leserengagement messen will. Vorausgesetzt, das Video startet nicht automatisch nach Seitenaufruf, sondern erst nach anklicken der Startbuttons.

Wie man sieht, steckt der Controlling Teufel mal wieder im Detail. Ungeachtet dessen beschreibt der Website-Boosting Artikel einen interessanten Weg, dem Inhalt angemessenen Engagements statistisch zu Leibe zu rücken.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.