Kampagnentracking mit Matomo

Tagging von Kampagnenlinks mit dem Matomo-URL Builder

In der Webanalyse ist es hinlänglich bekannt, dass unpräparierte Links in den Akquisitions-Reports unter Direktaufrufe gelistet werden. Lesenzeichenlinks, Links von QR-Codes, Links aus Mailings oder Newslettern – Nutzer, die auf diesem Wege auf die Seite kommen, versammelt die Webanalyse-Software (Matomo oder Google Analytics) unter direkten Zugriffen.

Das ist selbstverständlich für das Web- und Marketing-Controlling äußerst unbefriedigend. Daher haben Matomo (eigentlich schon Piwik; wir werden gleich sehen, inwiefern) und Google frühzeitig Abhilfe geschaffen. So genannte getaggte Links werden als Kampagnenlinks ausgelesen und in die entsprechenden Kampagnen-Reports gestellt. Tags sind gekennzeichnete Erweiterungen des ursprünglichen Kampagnenlinks, der auf die Ziel- oder Landingpage weist.

Der Google URL Builder kennt insgesamt 5 Tag-Parameter, die an den Link angefügt werden können. Drei Felder sind Pflicht: Kampagnenname, Quelle und Medium. Letztere beiden kennen wir schon aus den Acquisitions-Reports: beim Newsletter wären z.B. Medium “Mail” und Quelle: “Newsletter-Apr-21”. Die Quelle ist immer konkret, natürlich könnte hier auch nur “Newsletter” stehen. Dann könnten unter Term und Content z.B. konkretisierende Angaben stehen wie z.B. Term= ‘21-04-15’ (als Aussendedatumg) und Content = “Matomo-Schulung”. Die Parameter sind hierarchisch aufgebaut, die Struktur des Tagging sollte also zuvor genau festgelegt werden, damit einheitliche und aussagekräftige Reports erzeugt werden.

Matomo Kampagnentracking & -tagging

Bei Matomo unterscheide ich das einfache und das erweiterte Kampagnentracking. Seit etlichen Matomo-Versionen ist der URL Builder in das Admin-Backend integriert. Der klassische URL Builder kennt zwei Parameter, die mit den Tags pk_ übergeben werden: pk_campaign = Kampagnenname und pk_kwd für Keyword. Die Tags gehen selbstverständlich auf den alten Namen Piwik zurück.

Wer den integrierten URL Builder in Matomo verwendet, erhält die getaggten Links mit den Tags pk_. Beispiel:

Matomo Schulung

Erweitertes Kampagnentracking mit Matomo

Unter dem Namen Matomo wurde das Kampagnentracking nachhaltig erweitert. Mittlerweile kennt das Tracking bei Matomo acht Parameter. Das Parameter-Kürzel wurde konsequent umbenannt in: mtm_. Wer sich einen Überblick über die Parameter verschaffen will, kann sich auf der Matomoseite zum Kampagnentracking  informieren oder den Matomo-URL-Builder aufrufen

Interessant ist z.B., dass Matomo nun auch Kampagnen-IDs (mtm_cid) ermöglicht, oder erlaubt, Kampagnen in Kampagnengruppen (mtm_group) zusammenzufassen. Z.B. könnte eine Gruppe das Geschäftsjahr darstellen, so dass Unternehmen den Gesamterfolg aller Kampagnen eines Jahres zusammenfassen. Oder es können die einzelnen Kanäle (Newsletter, mailings, QR-Codes, Social Media) akkumuliert werden. Beispiel für getaggten Link bei erweitertem Tagging:

Matomo Schulung

Im Teilreport Herkunftseite – Medium taucht der Nutzer dann auch hier an erster Stelle auf: source: twitter und medium: social-media

Ausschnitt Kampagnenreport Quelle Medium

Benötigen Sie Unterstützung bei Ihrer Matomo Webanalyse? Schreiben Sie mir einfach an gerd.theobald@cofima.de!

Installation des Matomo-Kampagnen-Plugins

Das erweiterte Kampagnentracking kann nur mit einer Erweiterung (Plugin) durchgeführt werden. Das Plugin ist mittlerweile nicht mehr kostenpflichtig und kann einfach hochgeladen und aktiviert werden.

Installationswege für Matomo Plugins

Der erste etwas komplexere Weg geht über das Upload des Plugins “MarketingCampaignsReporting”, das man sich aus dem Pluginverzeichnis bei Matomo herunterladen kann. Der Upload kann dann unter Plattform => Marketplace gestartet werden. Allerdings muss der Admin zuvor noch in der Konfigurationsdatei config.ini.php zwei Zeilen hinzufügen, da der Plugin-Upload bei Matomo per default deaktiviert ist:

[General]
enable_plugin_upload = 1

Der Upload wird dann abschließenden mit der Eingabe des Matomo-Passworts bestätigt. Einfacher ist es, im Marketplace direkt nach dem Plugin zu suchen. Und es direkt zu installieren.

Matomo Marketplace Kampagnen Plugin

Acht Parameter für erweitertes Kampagnentracking mit Matomo

Nach der Aktivierung des Plugin stehen nun alle 8 Tags zur Verfügung, die Kampagnenlinks werden nun mit den mtm_Tags ausgezeichnet. Ein weiterer Vorteil des Kampagnen-Plugins: es liest auch die utm-Tags von Google aus. In der Folge dürften auch die Google-Ads Kampagnen in Matomo einfacher auszulesen sein.

Ein weiteres Plus besteht selbstverständlich in der Möglichkeit, auf alle Kampagnen-Tags segmentieren zu können und auch Segmentvergleiche durchzuführen z.B. zwischen Kampagnen, Kampagnengruppen usw.

Kampagnentags als Segmente bei Matomo

Zur Vertiefung des Verständnisses von Matomo und zur Implementierung einer professionellen Webanalyse mit Matomo empfehle ich den Matomo Workshop als Firmenseminar oder Online-Schulung.

Der Leistungsreport / Performance-Report bei Matomo und Googles Page Speed Insights

Seit Matomo Version 4 gibt es den Leistungsreport unter Verhalten => Leistung. Begründet wurde die Erweiterung u.a. mit Googles Update-Ankündigung für Mai 2021. Hier sollen die Ladeprozesse einer Seite einer detaillierteren Analyse unterzogen werden. Matomo möchte die Webanalysten darin unterstützen, langsame Seiten zu identifizieren und dort Abhilfe zu schaffen.

Matomo versucht automatisch, Leistungsdaten für jede Seitenansicht zu verfolgen, wenn der Matomo JavaScript-Tracker verwendet wird. Insgesamt baut Matomo die Ladezeit aus 6 einzelnen Parametern auf. Allerdings weist der Report Lücken auf, nicht immer werden alle Werte tatsächlich erfasst. Daraus ergibt sich eine Ungenauigkeit, allerdings lässt sich eine Tendenz durchaus nachvollziehen.

Google selbst analysiert im Hinblick auf das bevorstehende Update den Ladeprozess nach verschiedenen Parametern. Allerdings besteht ein erheblicher Unterschied zwischen beiden Analysen. Die Werte bei Matomo beschreiben den Status des technischen Fortschritts beim Laden einer Seite; d.h. die einzelnen Schritte von der Serveranfrage, über das Laden und Parsen bis zur vollständigen Anzeige des Windows werden gemessen.

Googles Analyse dagegen nimmt die Perspektive des Nutzers ein: wann sehe ich ein erstes Element, wann ist eine erste Interaktion möglich, wann ist das größte DOM Element geladen, wie stark verschieben sich die Layoutelemente beim Laden (der Cumulative Layout Shift ist kein Zeitwert)?

Leistungsreport aus Matomo Verhalten

Zurück zu Matomo: der Leistungsbericht enthält folgende Metriken:

  • Netzwerkzeit: Wie lange dauert es, die Verbindung zum Server herzustellen? (D.h. die DNS-Übersetzung der Anfrage und die TCP Verbindung)
  • Serverzeit: Die Antwortzeit des Servers an den Browser.
  • Übertragungszeit: Die Zeit, die der Browser benötigt zum Download der Serverantwort.
  • Zeit für DOM-Prozessierung: Die Zeit die verstreicht, bis eine Interaktion mit der Seite möglich ist (z.B. einen Navigationslink anzuklicken). Dieser Wert dürfte dem Wert Googles Time to interactive (TTI) entsprechen.
  • Zeit für DOM-Komplettierung:  Die Zeit, bis alle DOM Elemente geladen sind (insbesondere Bilder und Videos)
  • Ladezeit: Zeit, die der Browser benötigt, um Javascript-Code auszuführen, der auf das Ereignis window.load wartet, nachdem das DOM vollständig gerendert wurde.
  • Seitenladezeit: die Summe aller vorstehenden Metriken.

Bei manchen Ladeprozessen werden verschiedene Zeiten auch einmal nicht erfasst, daher sind die Durchschnittswerte bestenfalls Näherungswerte. Hier ein Ausschnitt aus dem kumulierten Report zu drei Seiten, Metriken in Millisekunden.

Der seitenspezifische Excelexport des Leistungsreports enthält sehr viele Daten. Für jede Seite werden auch die Besuchszeiten, Einstiege, Ausstiege, Absprünge, kleinste und maximale Zeitwerte der einzelnen Parameter angegeben. Der Report zeigt ansonsten die Zeiten in Millisekunden für die einzelnen Stationen (Es handelt sich um Blogartikel, deren URI ich der Übersichtlichkeit halber gelöscht habe).

Informieren Sie sich gerne über mein Angebot über Schulung und Beratung zur Webanalyse mit Matomo.

Die Parameter bei Googles Page Speed Insights

First Content Paint gibt die Periode bis zu dem Zeitpunkt an, zu dem das erste DOM Element beginnt zu laden. Iframes werden dabei nicht berücksichtigt. Zeiten bis 2 Sekunden liegen im grünen Bereich.

Speed Index gibt an, wie schnell eine Seite lädt; dabei ist aber nicht die Ladezeit absolut gemeint. Es kommt vielmehr darauf an, ob vom Start weg Inhalte schnell geladen werden. Wenn die ersten 50% der Seite schnell laden, ist der kumulierte Speed Index niedriger, als bei einer Seite, in der die ersten 50% langsamer laden aber dann die Ladezeit insgesamt bei beiden identisch ist. Google gibt an, dass es für die Messung des Speed Index den Ladefortschritt des Frames mit Hilfe eines Videos misst. Bis 4,3 Sekunden ist eine Website im grünen Bereich.

Largest Contentful Paint gibt die Zeit an, bis das umfangreichste Content Element im sichtbaren Browserbereich geladen ist. Die LCP Metrik gibt die Zeit, die es braucht, bis das größte Bild oder der größte Textblock gerendert ist. Im Viewport nicht sichtbare Elemente fließen nicht in die Wertermittlung ein. Nach Google sollte der LCP Score unter 2,5 Sekunden liegen.

Time to interactive gibt die Zeit an, die verstreicht, bis ein Nutzer mit ihr interagieren kann. Der Wert sollte unter 3,8 Sekunden liegen.

Total blocking Task ist der Zeitabschnitt zwischen dem First Contentful Paint und der Time to Interactive. Überschreitet dieser Abschnitt die Dauer von 50 Millisekunden, dann ist die überschüssige Wartezeit die Total Blocking Time.

Beispiel für Cumulative Layout Shift

Cumulative Layout Shift wird als Wert zwischen zwei Ladezuständen gemessen. Er ist ein Produkt aus zwei Werten: impact fraction*distance fraction. Impact fraction fragt, welchen prozentualen Anteil ein verschobenes Element im Layout hat und addiert den Anteil hinzu, um den es verschoben wird. Wenn die zwei Drittel des Fensters durch Nachladen eines Headers um ein Drittel nach unten verschoben wird (d.h. der Header nimmt die Hälfte des verschobenen Elements ein), dann ist der impact fraction 99 % oder 0,99. Die distance fraction gibt dann den Wertanteil, um wieviel das Element prozentual verschoben wurde, also 33 % oder 0,33. Der CLS errechnet sich dann aus dem Produkt beider Werte: 0,33

Das Diagramm soll noch einmal veranschaulichen, dass Matomos Leistungsreport am technischen Ladeprozess einer Website orientiert ist, während Googles Page Speed Insights aus der Sichtweise des Nutzers orientiert ist.

Diagramm Matomo Leistungsreport und Googles Page Speed Parameter

Matomo Update 4.1 – Internal Server Error!

Vor ein paar Tagen startete ich die Aktualisierung auf die neue Version Matomo 4.1. Zunächst sah alles gut aus. Als ich dann das Matomo-Verzeichnis aufrief – kam die berüchtigte Fehlermeldung: Internal Server Error 500.

Da nichts mehr ging, prüfte ich zunächst die PHP Einstellung. Die war zwar nicht topaktuell aber mit PHP 7.3 nicht unbedingt fehlerverdächtig.

Auf der Suche nach Lösungen stieß ich auf Gerhard Kerners Technikblog, der empfahl, in der Datenbank die Version auf die Vorgängerstufe herunterzusetzen. In der Tabelle piwik***_option reduzierte ich die Version. Ein neuer Startversuch schlug genauso fehl.

Die einzige Lösung war hier das manuelle Update. Die heruntergeladene Version Matomo 4.1 habe ich via FTP (im binären Modus) in mein Matomoverzeichnis hochgeladen. Beim neuerlichen Aufruf von Matomo kam nun wieder die vertraute Rückmeldung, dass die Datenbank noch aktualisiert werden müsse. Gelesen, getan und die neue Version läuft wieder wie am Schnürchen.

Ich habe die Serverlogs nicht geprüft, ich vermute aber, dass das Plugin Bot Tracker den Fehler verursacht hatte. Beim neuerlichen Einloggen kam die Warnung, dass das Plugin mit dieser Version nicht kompatibel sei. Ich hatte es zwar deaktiviert, nun aber völlig gelöscht.

Also – wenn das (halb-)automatische Update nicht klappt, kommt man mit dem manuellen Update ohne Datenverlust ans Ziel.

Nachtrag vom 11.02.2021: auch das Update von früheren Versionen als 4.1.0 auf 4.1.1 erzeugt einen Servererror 500 bei mir. Auch hier hat das manuelle Nachinstallieren geholfen. Das Update von 4.1.0 auf 4.1.1 líef dagegen reibungslos.

WordPress-Transfer einfach erklärt

Transfer einer WordPress Installation

Es kommt häufiger vor, dass man vor der Aufgabe steht, eine WordPress Installation zu transferieren. Eigentlich ist der Vorgang nicht besonders kompliziert, aber die Schritte sollten in der richtigen Abfolge geschehen.

Zunächst: was heißt Transfer und welche Fälle sind damit gemeint? Es kann sein, dass ich meine WordPress-Seite lokal auf meinem Rechner entwickle. Hierfür ist z.B. Xampp (für die gängigen Betriebssysteme erhältlich unter apachefriends.org) eine sehr gute Umgebung, die alle nötigen Funktionen für ein dynamisches CMS bereithält. Die neue Installation kommt (Ende 2020) mit PHP 8.0. Oder ich möchte meine WordPress-Seite zu einem anderen Provider übertragen. Oder ich habe eine neue Seite mit WordPress unter einer Subdomain entwickelt (z.B. neuesite.meinedomain.tld) und  möchte zuletzt die alte Seite abschalten und meine Domain mit der neuen Seite verknüpfen. In mindesten zwei von den drei Fällen ändert sich der Domainname, und in zwei Fällen von dreien, muss ich eine neue Datenbankverbindung einrichten.

Ich gehe hier auf den Umzug einer lokalen WordPress-Instanz auf einen Provider ein.

Auf Xampp liegt die WordPress-Installation im Rootverzeichnis htdocs in einem Unterverzeichnis. Heißt das Unterverzeichnis “projekt” dann lautet die Xampp-Domain http://localhost/projekt

Platz auf dem Server des Providers schaffen

Zunächst brauche ich eine neue Heimat für mein WordPress, diesmal auf dem Server meines Providers. Die richte ich mit einem FTP-Programm wie Filezilla ein. Die Zugangsdaten gibt mir mein Provider. In dieses Verzeichnis ziehe ich nun per Drag & Drop alle WP Ordner und Dateien.

Domain mit dem Verzeichnis verknüpfen 

Das Verzeichnis muss ich beim Provider nun als Ziel meiner registrierten Domain angeben. Hierfür haben Provider die Domainverwaltung eingerichtet. Ich ordne hier der Domain einfach mein neu erstelltes Verzeichnis zu:

Serververzeichnis anlegen

Bis der Server die Weiterleitung auf das Verzeichnis registriert hat, können schon einmal 20 Minuten ins Land gehen.

Die Datenbank anpassen

In der Zwischenzeit exportiere ich die Datenbank aus Xampp mit Hilfe der Adresse http://localhost/phpmyadmin. Ich rufe meine Datenbank auf und markiere alle Tabellen. Mit Klick auf Export bietet mir der folgende Bildschirm den einfachen oder nutzer-angepassten Download. In der Regel genügt der einfache, die SQL Datei landet im Download-Ordner auf dem Rechner.

Datenbank exportieren

Beim Provider lege ich eine neue Datenbank an und notiere mir genau Datenbanknamen, Nutzernamen, Passwort und den Datenbank-Servernamen. In die neue noch leere Datenbank beim Provider importiere ich die DB von meinem Rechner. Es ist der umgekehrte Vorgang wie beim exportieren. Ich rufe die noch leere Datenbank auf, klicke oben auf Importieren und lade die Datenbank von meinem Rechner hoch.

Jetzt ist also WordPress auf dem Server und die Datenbank in der Datenbankverwaltung des Providers. Nun muss ich noch einige Einstellungen vornehmen, genauer gesagt zwei.

Zunächst gehe ich in die Datenbank mit Hilfe des bekannten Programms und rufe die Tabelle _options auf (welches Präfix du hast, weiß ich natürlich nicht). 

Datenbank in options bearbeiten

Die beiden ersten Zeilen enthalten noch die alte Adresse, über bearbeiten rufe ich die beiden Zeilen nacheinander auf und überschreibe die alte lokale Adresse mit meiner Domain, also https://meinedomain.tld.

Datenbanktabelle-Feld überschreiben mit neuer URL

WordPress mit der neuen alten Datenbank bekannt machen

Würde ich jetzt die Seite aufrufen, käme eine Meldung die einen Datenbankfehler verkündet. WordPress findet selbstverständlich die alte Datenbank auf meinem Rechner nicht. Ich muss also die alte Datenbank unter neuem Namen erst mit der WordPress-Instanz auf dem Server bekannt machen.

Dazu brauche ich nochmal das FTP Programm und suche gleich unterhalb meines Verzeichnisses die Datei config.php. Der rechte Mausklick öffnet u.a. die Frage, ob ich die Datei ansehen oder bearbeiten. Ja das will ich (ggf. muss ich ein Bearbeitungsprogramm auswählen, z.B. Wordpad) und komme in die Datei. Hier überschreibe ich ziemlich weit oben die Datenbank-Parameter mit den neuen, die mir mein Provider gegeben hat.

Hier die config.php, wie sie auf Xampp aussieht:

Config.php anpassen für neue Datenbankverbindung

Die grünen Infos ‘wordpress’, ‘root’, ‘localhost’ müssen überschrieben werden und das Passwort eingefügt werden. Mit Schließen der Datei im Bearbeitungsprogramm wird sie auch an den Server übertragen. 

Zusätzlich kann ich in die config.php noch zwei Zeilen unterhalb der Datenbank-Deklaration einfügen (natürlich kommt hier wie oben in die Datenbank die richtige, also meine Domainadresse):

define( ‚WP_HOME‘, ‚https://meinedomain.tld‘ );
define( ‚WP_SITEURL‘, ‘https://meinedomain.tld‘ );

Selbstverständlich muss ich genau darauf achten, kein Zeichen (Anführungszeichen, Strichpunkt) aus Versehen zu löschen, dann funktioniert es nicht mehr.

Wenn ich jetzt im Browser die Domain aufrufe, sollte die WordPress-Seite zu sehen sein. Kommt eine Fehlermeldung, muss ich alle Schritte und Einträge noch einmal überprüfen. Da Capo!

Übrigens ist es bei WordPress nötig, nochmals alle Funktionen zu überprüfen, also Bilder, Downloads, Anmeldungen usw. Ggf. haben bestimmte Funktionen oder Anwendungen noch den alten URL. Dann ist manuelles Nacharbeiten angesagt.

Liest das wer?

Die 62. Ausgabe von Websiteboosting veröffentlichte unter R-Leuchtungen! Teil 2 eine Anleitung, wie man das Leserengagement im Hinblick auf den Textumfang beurteilen und statistisch bewerten kann. Drei Tools kamen hierfür zum Einsatz: Google Analytics, Screaming Frog und die Software R.

Content Marketing ist Hype und das betrifft in erster Linie den textlichen Anteil. Mit verlässlicher Regelmäßigkeit wird der Warnhinweis mitgeliefert, dass Content Marketing kostet. Vor allem, wenn man “wertvollen” Content anzielt, der dem Nutzer einen deutlichen “Mehrwert” bietet. Und qualitätsvoller Content braucht Ressourcen, egal, ob er selbst erstellt oder beauftragt ist.

Eine ironische Zwischenbemerkung kann ich hier nicht unterdrücken. Anscheinend gibt es zwei Typen von Inhalten. Die, deren Themen dutzende Male von Dutzenden von Autoren*innen erstellt wurden. Gemäß dem etwas abgewandelten Bonmot Karl Valentins, dass eigentlich nichts Neues mehr unter der Sonne gesagt werden kann. Neu ist nur, dass es eine(r) sagt, der/die’s bis dato noch nicht sagte. Der andere Content-Typus? Das ist der, den man vergeblich sucht. Sozusagen die dunkle digitale Materie des Web.

Kommen wir wieder zum Thema: Wenn Content schon aufwändig zu erstellen ist, will der Unternehmer damit zweierlei: dass er gelesen wird und einen messbaren Effekt auf den unternehmerischen Erfolg hat. Zwar kann Content auch einen messbaren Effekt haben, wenn er nicht gelesen wird (z.B. durch SEO Effekte, die Besucher zur Seite führen). Aber gelesen werden will man doch, bitteschön, auch. Nur, tut’s auch einer? Und zwar mit angemessenem Engagement?

Mir geht es hier nicht um die technische Lösung, die Daten aus Google Analytics und dem Screaming Frog mit Hilfe der Statistiksoftware R auswertet. Kurz gesagt werden drei Daten aus zwei Quellen verarbeitet: der URL-Path, die durchschnittliche Besuchsdauer und die Zahl der Worte auf jeder Seite. Bei einer angenommenen durchschnittlichen Lesegeschwindigkeit von 220 Wörtern pro Minute, lässt sich anhand der Wortzahl pro Seite eine durchschnittliche Zeit angeben, die benötigt wird, den Artikel zu lesen. Abweichungen nach oben oder unten können dann statistisch ausgewertet werden.

Wie intensiv befasst sich nun der Nutzer mit dem Content wirklich?

Die Frage lässt sich so nicht direkt beantworten. Das ist den Autoren auch bewusst, die darauf hinweisen, dass sich ein Besucher auch bei geöffneter Seite mit anderem beschäftigen kann als mit dem Text. Sie weisen auch darauf hin, dass das geschilderte Verfahren den gesamten humanen Seiten-Text erfasst und nicht nur den Primary Content. Als Lösung verweisen sie auf die Selektion des betreffenden Textes des entsprechenden DOM Elements.

Weitere kritische Parameter, die das Leserengagement verwässern können

Bei aller Begeisterung über die technischen Möglichkeiten, die Screaming Frog mit API, Google Analytics und R bieten, bleibt die Frage, in welchem Umfang statistische Abweichungen von der durchschnittlichen ermittelten Lesedauer abweichen können, dürfen oder müssen. Hier ein paar ergänzende Überlegungen zu dem durchaus interessanten und lesenswerten Artikel:

Die Content-Länge als kritischer Faktor

Ich halte es für sehr wahrscheinlich, dass ein langer Text (> 1000 Wörter) oft gar nicht ganz gelesen wird. Ist der Artikel nach dem Prinzip der umgekehrten Pyramide verfasst, habe ich das Wesentliche schon nach vielleicht einem Textdrittel erfasst. Für längere Texte müsste ein Dämpfungsfaktor die zu erwartende Lesedauer reduzieren.

Nach Absprung: 0 Sek.

Besucher, die die Zielseite konsumieren und wieder aktionslos verschwinden, haben 0 Sekunden Besuchszeit. Blogbetreiber kennen die leidige Thematik. Ein HeartBeatTimer kann hier etwas Abhilfe schaffen, indem er nach einer angemessen Zeitfrist ein Ereignis auslöst und so auch Absprüngen einen Zeitverlauf zumessen kann. Weiteres in meinem Artikel zur Messung des Leserengagements.

Leicht lesbar – oder doch nicht?

Rudolf Flesch entwickelte auf Basis weniger Informationen für Texte (in europäischen Idiomen verfasst) den so genannten Lesbarkeitsindex. Er basiert auf der durchschnittlichen Satzlänge (Wortzahl pro Satz) und der durchschnittlichen Silbenzahl pro Wort. Texte mit einem Fleschwert unter 50 sind schwer bis sehr schwer zu lesen. Gut, die Empfehlung lautet ohnedies, einfach gut lesbare Texte für das Web zu schreiben. Ein Test auf Lesbarkeit schadet dennoch nie. Das WordPress-Plugin Yoast tut hier seine Meinung kund, oder man nutzt ein Portal wie leichtlesbar.ch. Ein anderer Punkt: Verwende ich eine bildreiche, rhetorische Sprache, die den Leser zum Nach-Denken animiert?

Typografisches Augenpulver?

Ein weiterer Aspekt betrifft die Typografie. Nicht alles lässt sich so gut lesen wie eine Überschrift in der BILD-Zeitung (rein physiologisch versteht sich). Weiße Schrift auf dunklem Grund, schwacher Schriftkontrast, der die Typen mit dem Hintergrund zu einem quasi farblichen Einheitsbrei verschwimmen lässt, zu kleine Schrifttypen usw. – all das kann das Lesen verleiden und die Besuchszeit verkürzen.

Make me think – Bilder und Videos auf den Seiten

Zu all dem kommt noch der nicht textliche Content. Bild und Infografiken stoppen den Lesefluss. Bilder werden betrachtet, interpretiert, auf den Text oder die Unterschrift bezogen. Noch mehr Zeit beanspruchen Videos – hier könnte man dann die Betrachtungszeit des Videos (Ereignissmessung!) von der gesamten Seiten-Besuchsdauer abziehen, wenn man das reine Leserengagement messen will. Vorausgesetzt, das Video startet nicht automatisch nach Seitenaufruf, sondern erst nach anklicken der Startbuttons.

Wie man sieht, steckt der Controlling Teufel mal wieder im Detail. Ungeachtet dessen beschreibt der Website-Boosting Artikel einen interessanten Weg, dem Inhalt angemessenen Engagements statistisch zu Leibe zu rücken.

Der (un-)heimliche Leser – Messung des Leserengagements in der Webanalyse

Vor kurzem las ich in dem Newsletter von 121watt (07.07.2020) folgenden Passus: “Ob dein Content sein Ziel erreicht und gut bei deiner Zielgruppe ankommt, kannst du anschließend anhand verschiedener Kennzahlen überprüfen. Eine niedrige Absprungrate gepaart mit einer langen Verweildauer sprechen zum Beispiel dafür, dass sich deine Nutzer intensiv mit deinen Inhalten auseinandersetzen und du ihre Bedürfnisse richtig adressierst.”

Selbstverständlich wissen Alexander Holl und sein Trainerteam es besser, als ihre plakative Aussage hier vermuten lässt.. Denn Absprungrate und Verweildauer sind sehr grobe Kennzahlen für das Besucherengagement. Für mich gaben sie einen Anlass, über das Messen des Engagements, die die Besucher Seiten-Inhalten widmen, etwas detaillierter zu schreiben.

Read More

Instagram – den Social Media Account vom Desktop aus verwalten

Hierüber wurde in letzter Zeit schon häufiger geschrieben, einige Ergänzungen aus eigenen Erfahrungen möchte ich hier aber noch hinzufügen.

Selbstverständlich ist es für Betreiber und Agenturen nicht immer einfach, die Prozesse der Bild- oder Videoerstellung gerade für Instagram effizient zu gestalten. Das Smartphone ist dann letztlich das Nadelöhr, durch das die Posts mit Bild und Text gehen müssen. Aufnahmen werden doch oft mit professionellem Gerät und Bildbearbeitungssoftware wie Photoshop oder Gimp erstellt und gestaltet. Für die digitale Veröffentlichung müssen sie dann aber immer noch über das Mobile hochgeladen werden. 

Kostenlose Tools wie Gramblr, die früher vom Desktop Posts ermöglichten, funktionieren nicht mehr. Sie hatten auch insofern Einschränkungen, als z.B. keine Hashtags ergänzend vorgeschlagen wurden. Dafür konnte man ab und an garantierte (Fake-?)Likes einheimsen.

Mittlerweile gibt es zwei Wege, den Instagram Kanal vom Desktop aus zu befüllen. Im einen Falle simuliert man mit dem Desktop einfach, er sei ein Mobilgerät. Der andere Weg geht über das Creator Studio von Facebook.

Read More

Individuum est ineffabile – die vergebliche Hoffnung auf „den“ Kunden

Das Zitat ist zugegeben schon recht betagt, seine Wurzeln reichen in die Antike zurück, in die griechische Philosophie. Was es aussagen will, ist dennoch recht einfach vermittelbar, auch das kann man mit den Mitteln der Aussagenlogik erschließen, deren erster großer Lehrer Aristoteles war. Worum geht es? Eine begriffliche Bezeichnung (Baum, Kunde) bezeichnet etwas Allgemeines, der Singular steht für eine Art Kategorie. Will man nun diese Bezeichnung etwas genauer kennzeichnen, benötigt man eine Differenz, eine differentia specifica. Also Baum als Eiche, Kunde als zahlender oder zu mahnender. Diese Differenz kann man ein Stück weit weitertreiben, aber irgendwann ist das Aussagenpotenzial erschöpft. Wir kommen nie an das Individuum als solches heran, weil wir es nicht differenzieren können, deshalb heißt es ja In-dividuum, unteilbar ist es auch un-mitteilbar. Schauen wir uns einmal die Aussagen der Online-Marketer an, nirgends lese ich den Satz so häufig wie: müssen wir wissen, was unser Kunde genau von uns will. (Zitat aus: https://entwickler.de/online/e-business/online-marketing-karl-kratz-579800391.html) Die Googleabfrage „Was der Kunde will“ (sic!) ergibt 24300 Treffer. Aber Ignoramus et ignorabimus (noch ein Zitat!), wir wissen es nicht und werden es nicht wissen. Denn „der“ Kunde ist schlichtweg nicht kommensurabel, wir kennen nicht seine Motivation, seine Antriebe, seinen Frust; und wer wollte schon behaupten, dass er sich selbst so gut kenne, dass er seine Handlungsmotivationen darlegen kann wie ein Anatom ein Präparat. Selbstverständlich meinen unsere Marketer etwas anderes, nämlich was „die“ Kunden wollen. Aber nun die Frage, wie groß muss die Gruppe „der“ Kunden sein, damit ich eine halbwegs plausible Prognose über das Verhalten abgeben kann. In passiven Systemen (Roulette) gilt bei Kleinmengen das Gesetz der kleinen Zahlen, d.h. etliche Kunden werden uns durch das gespannte Auffangnetz schlüpfen. Nun sind Online-Marketer ja keine passiven Fallensteller, sondern arbeiten aktiv mit Call to action und neuropsychologischen, multisensorischen und anderen Methoden. Aber auch hier gilt, wo beginnt ein voraussagbarer Effekt der Beeinflussung, ab welcher statistischen Größe können wir eigentlich von einer gesicherten Erkenntnis sprechen? 100, 1000, 10000, haben wir überhaupt eine belastbare statistische Basis um von „den“ Kunden (Plural!) zu sprechen. Wenn statt zwei Kunden vier kaufen, ist das ein Wachstum um 100 %, statistisch aber bestenfalls kontingent zu werten. Und ab welcher Zahl können wir statistisch vertrauen? Warum schweigen die Marketer darüber? Ignoramus.

Pinterest mit # Hashtag

###Hashtags### waren bekanntlich eine Erfindung des Sozialen Kanals Twitter. In der Twittersuche konnte man über eine Keywordfunktion hinaus Tweets suchen, die den gehashten Begriff enthielten. Die Suche auf Twitter hatte so wenn man will, zwei Ebenen, eine Suche mit # (spezieller) und eine ohne (allgemeiner).

Andere Kanäle übernahmen diese Funktion. Am üppigsten kann man die Hashtags auf Instagram wuchern sehen. Beim Posten mit dem Smartphone werden mit Eingabe # und Buchstabenfolge schon Vorschläge erstellt und angezeigt, wie viele Posts unter diesen Hash fallen und wie populär er ist. Ob die Reichweite nur quantitativ bewertet werden soll bei der Verwendung von Kennzeichnungen, steht auf einem anderen Blatt.

Weitere Kanäle folgten und auch auf Facebook sah man hie und da einen Post mit der Kennzeichnung. Auch auf Pinterest gab es die Hashtags, möglicherweise eingeschleppt über Verknüpfungen mit Instagram und Twitter. Aber dort fristeten sie ein freudloses Dasein, da sie einfach keine Funktion hatten; außer dass sie die User, die wenig in Social Media Marketing bewandert waren, verwirrten.

Nun aber treten auch auf Pinterest die Hashtags in Kraft. Im Prinzip sind sie hier nun auch nichts anderes, als Links auf Pins, die mit einem entsprechenden Keyword ausgezeichnet wurden. Die Liste der Ergebnisse wird nun chronologisch ausgegeben. Und wie bei Instagram erhält man auf Instagram auch automatisch generierte Vorschläge für das Setzen von Hashtags.

Laut Pinterest ist es übrigens sinnlos, alte Pins mit # zu versehen, da die Funktion erst mit Publizieren neuer Pins verfügbar ist. Weitere Infos auf den Hilfeseiten von Pinterest.

Willkommen zum Internet-Blog von Cofima

Wir starten heute unseren neuen Internet-Blog. Selbstverständlich schreiben wir hier über Themen rund ums Online-Marketing, Suchmaschinenoptimierung, Webanalyse, Content- und Social Media Marketing. Aber solche Themen erwartet man wohl in eine Blog eines Beraters für Online-Marketing. Es wird auch andere Themen geben die sich kritisch mit dem Internet auseinandersetzen, Entwicklungen im Web nachzeichnen und andere – kritische – Stimmen zitieren und rezensieren. Viel Spaß beim Lesen.

Der erste Beitrag ist gleich einem kritischen Thema gewidmet: Black-Hat Linkbuilding.