Matomo sampelt Daten?

Bei Google Analytics ist es bekannt, dass in großen Accounts und bei Betrachtung über einen längeren Zeitraum das so genannte Sampling eintritt. Die Grenze liegt z.B. bei 500.000 Sessions in einer Property pro betrachtetem Zeitraum. Wer einen längeren Zeitraum analysiert und ihn ggf. noch mit einem anderen Zeitraum vergleicht, läuft die Gefahr, dass nur ein Teil der Daten in den Reports ausgegeben werden. Die Samplingrate gibt Google an, über dem Report erscheint ein kleines Fenster: This Report is based on XX% of sessions.

Beschränkung der Seiten-Reports bei Matomo

Bei Matomo gibt es tatsächlich eine Beschränkung in der Analyse der Verhaltensreports. Diese Beschränkung bezieht sich auf Seitenaufrufe, Ereignisse, Interne Suchen u.a. Falls mehr als 500 verschiedene Seiten-URLs erfasst werden (bei anderen Dimensionen sind es meist 1000, z.B. im Akquisereport) fasst Matomo weniger bedeutende unter „Andere“ zusammen. Bei kleinen Auftritten ist da keine Einschränkung zu erwarten. Bei frequentierten Websites dagegen schon. Im Seitenreport werden „überschüssige“ Seiten unter „Andere“ gelistet.

Seitentreport zu Andere zusammengefasste Seiten

Der Spielraum, den Matomo uns lässt, kann relativ problemlos erweitert werden. Damit erzielt man detailliertere Reports, die allerdings zu Lasten der Performanz gehen. Um die Darstellung z.B. des Seitenreports anzupassen, genügt es, einige Zeilen Code in die Konfigurationsfdatei von Matomo: config/config.ini.php zu schreiben. Hier sind die Codezeilen beispielhaft für den Seitenreport:

; maximum number of rows for any of the Actions tables (pages, downloads, outlinks)
datatable_archiving_maximum_rows_actions = 5000
; maximum number of rows for pages in categories (sub pages, when clicking on the + for a page category)
datatable_archiving_maximum_rows_subtable_actions = 5000

Die Zeilen drei und vier beziehen sich auf den hierarchischen Seitenreport, der nach der Verzeichnisstruktur der Website aufgebaut ist.

Haben Sie Fragen zur Matomo Konfiguration oder Auswertung? Schreiben Sie an gerd.theobald@cofima.de oder rufen Sie an: +49 177 7543098

Besuch von Facebook, Pinterest etc.

Zwei Beiträge beschäftigen sich mit der Analyse von Besuchern, die (hoffentlich) über soziale Kanäle auf die Website kommen. Dort nimmt sie die Webanalyse in Empfang. Wie kann ich die Qualität der Daten steigern und was lese ich aus den Daten heraus?

Unternehmen engagieren sich in verschiedenen Social Media Kanälen. Sie treibt die Hoffnung auf mehr Sichtbarkeit, mehr Besucher der Website und last but not least mehr Umsätze oder Leads. Facebook, Twitter und Pinterest sind auch deshalb so beliebt, weil diese Portale direkte Verlinkung mit Landingpages erlauben. (Instagram nur mit verifizierten Account und mehr als 10k Followern).

Nun wollen wir doch wissen, woher die Besuche kommen und was sie so auf der Zielseite machen. dafür gibt es die Webanalysetools von Google und Matomo. Allerdings sind die Akqusitionsreports nicht unbedingt aussagekräftig. Über welchen Facebookpost kam denn der Besuch? Welcher Pin war Auslöser? Die Webanalyse verrät zwar den Referrer. Und weil sie es gelernt hat, werden die Referrer auch den Sozialen Medien zugeschlagen. So landen die Besuche im Acquisitionsbereich Soziale Medien. Allerdings alle im jeweiligen Facebook-, Twitter-, Pinterest- usw. -topf.

Anhand der Landingpage oder Zielseite kann man ggf. noch rückschließen, welcher Post hier Vermittler war. Aber richtig praktisch ist das nicht. Abhilfe schaffen hier getaggte Links, die bei Google oder Matomo den Ziellink in einen Kampagnenlink transformieren.

Ich habe erst vor kurzem einen Beitrag über das Taggen von Kampagnenlinks geschrieben. Nun wirken getaggte Links abschreckend, ja doppelt abschreckend. Einmal sind sie je nach Zahl der Tags recht lang. Zum anderen wirken sie “technisch” – das könnte den einen anderen misstrauisch machen und davon abhalten, darauf zu klicken. In dem Falle hilft es, den URL Shortener z.B. von Bitly einzusetzen und den kompletten Kampagnenlink zu kürzen.

Da Bitly den Kurzlink weiterleitet, bleiben die Kampagnentags erhalten und werden in der Webanalyse wiedergegeben. So wird aus diesem Bandwurmlink:

Matomo Tag Manager Schulung (Einführung)

dieser recht überschaubare Shortlink: https://bit.ly/3azd76k

Kampagnentracking mit Matomo

Tagging von Kampagnenlinks mit dem Matomo-URL Builder

In der Webanalyse ist es hinlänglich bekannt, dass unpräparierte Links in den Akquisitions-Reports unter Direktaufrufe gelistet werden. Lesenzeichenlinks, Links von QR-Codes, Links aus Mailings oder Newslettern – Nutzer, die auf diesem Wege auf die Seite kommen, versammelt die Webanalyse-Software (Matomo oder Google Analytics) unter direkten Zugriffen.

Das ist selbstverständlich für das Web- und Marketing-Controlling äußerst unbefriedigend. Daher haben Matomo (eigentlich schon Piwik; wir werden gleich sehen, inwiefern) und Google frühzeitig Abhilfe geschaffen. So genannte getaggte Links werden als Kampagnenlinks ausgelesen und in die entsprechenden Kampagnen-Reports gestellt. Tags sind gekennzeichnete Erweiterungen des ursprünglichen Kampagnenlinks, der auf die Ziel- oder Landingpage weist.

Der Google URL Builder kennt insgesamt 5 Tag-Parameter, die an den Link angefügt werden können. Drei Felder sind Pflicht: Kampagnenname, Quelle und Medium. Letztere beiden kennen wir schon aus den Acquisitions-Reports: beim Newsletter wären z.B. Medium “Mail” und Quelle: “Newsletter-Apr-21”. Die Quelle ist immer konkret, natürlich könnte hier auch nur “Newsletter” stehen. Dann könnten unter Term und Content z.B. konkretisierende Angaben stehen wie z.B. Term= ‘21-04-15’ (als Aussendedatumg) und Content = “Matomo-Schulung”. Die Parameter sind hierarchisch aufgebaut, die Struktur des Tagging sollte also zuvor genau festgelegt werden, damit einheitliche und aussagekräftige Reports erzeugt werden.

Matomo Kampagnentracking & -tagging

Bei Matomo unterscheide ich das einfache und das erweiterte Kampagnentracking. Seit etlichen Matomo-Versionen ist der URL Builder in das Admin-Backend integriert. Der klassische URL Builder kennt zwei Parameter, die mit den Tags pk_ übergeben werden: pk_campaign = Kampagnenname und pk_kwd für Keyword. Die Tags gehen selbstverständlich auf den alten Namen Piwik zurück.

Wer den integrierten URL Builder in Matomo verwendet, erhält die getaggten Links mit den Tags pk_. Beispiel:

Matomo Schulung

Erweitertes Kampagnentracking mit Matomo

Unter dem Namen Matomo wurde das Kampagnentracking nachhaltig erweitert. Mittlerweile kennt das Tracking bei Matomo acht Parameter. Das Parameter-Kürzel wurde konsequent umbenannt in: mtm_. Wer sich einen Überblick über die Parameter verschaffen will, kann sich auf der Matomoseite zum Kampagnentracking  informieren oder den Matomo-URL-Builder aufrufen

Interessant ist z.B., dass Matomo nun auch Kampagnen-IDs (mtm_cid) ermöglicht, oder erlaubt, Kampagnen in Kampagnengruppen (mtm_group) zusammenzufassen. Z.B. könnte eine Gruppe das Geschäftsjahr darstellen, so dass Unternehmen den Gesamterfolg aller Kampagnen eines Jahres zusammenfassen. Oder es können die einzelnen Kanäle (Newsletter, mailings, QR-Codes, Social Media) akkumuliert werden. Beispiel für getaggten Link bei erweitertem Tagging:

Matomo Schulung

Im Teilreport Herkunftseite – Medium taucht der Nutzer dann auch hier an erster Stelle auf: source: twitter und medium: social-media

Ausschnitt Kampagnenreport Quelle Medium

Benötigen Sie Unterstützung bei Ihrer Matomo Webanalyse? Schreiben Sie mir einfach an gerd.theobald@cofima.de!

Installation des Matomo-Kampagnen-Plugins

Das erweiterte Kampagnentracking kann nur mit einer Erweiterung (Plugin) durchgeführt werden. Das Plugin ist mittlerweile nicht mehr kostenpflichtig und kann einfach hochgeladen und aktiviert werden.

Installationswege für Matomo Plugins

Der erste etwas komplexere Weg geht über das Upload des Plugins “MarketingCampaignsReporting”, das man sich aus dem Pluginverzeichnis bei Matomo herunterladen kann. Der Upload kann dann unter Plattform => Marketplace gestartet werden. Allerdings muss der Admin zuvor noch in der Konfigurationsdatei config.ini.php zwei Zeilen hinzufügen, da der Plugin-Upload bei Matomo per default deaktiviert ist:

[General]
enable_plugin_upload = 1

Der Upload wird dann abschließenden mit der Eingabe des Matomo-Passworts bestätigt. Einfacher ist es, im Marketplace direkt nach dem Plugin zu suchen. Und es direkt zu installieren.

Matomo Marketplace Kampagnen Plugin

Acht Parameter für erweitertes Kampagnentracking mit Matomo

Nach der Aktivierung des Plugin stehen nun alle 8 Tags zur Verfügung, die Kampagnenlinks werden nun mit den mtm_Tags ausgezeichnet. Ein weiterer Vorteil des Kampagnen-Plugins: es liest auch die utm-Tags von Google aus. In der Folge dürften auch die Google-Ads Kampagnen in Matomo einfacher auszulesen sein.

Ein weiteres Plus besteht selbstverständlich in der Möglichkeit, auf alle Kampagnen-Tags segmentieren zu können und auch Segmentvergleiche durchzuführen z.B. zwischen Kampagnen, Kampagnengruppen usw.

Kampagnentags als Segmente bei Matomo

Zur Vertiefung des Verständnisses von Matomo und zur Implementierung einer professionellen Webanalyse mit Matomo empfehle ich den Matomo Workshop als Firmenseminar oder Online-Schulung.

Der Leistungsreport / Performance-Report bei Matomo und Googles Page Speed Insights

Seit Matomo Version 4 gibt es den Leistungsreport unter Verhalten => Leistung. Begründet wurde die Erweiterung u.a. mit Googles Update-Ankündigung für Mai 2021. Hier sollen die Ladeprozesse einer Seite einer detaillierteren Analyse unterzogen werden. Matomo möchte die Webanalysten darin unterstützen, langsame Seiten zu identifizieren und dort Abhilfe zu schaffen.

Matomo versucht automatisch, Leistungsdaten für jede Seitenansicht zu verfolgen, wenn der Matomo JavaScript-Tracker verwendet wird. Insgesamt baut Matomo die Ladezeit aus 6 einzelnen Parametern auf. Allerdings weist der Report Lücken auf, nicht immer werden alle Werte tatsächlich erfasst. Daraus ergibt sich eine Ungenauigkeit, allerdings lässt sich eine Tendenz durchaus nachvollziehen.

Google selbst analysiert im Hinblick auf das bevorstehende Update den Ladeprozess nach verschiedenen Parametern. Allerdings besteht ein erheblicher Unterschied zwischen beiden Analysen. Die Werte bei Matomo beschreiben den Status des technischen Fortschritts beim Laden einer Seite; d.h. die einzelnen Schritte von der Serveranfrage, über das Laden und Parsen bis zur vollständigen Anzeige des Windows werden gemessen.

Googles Analyse dagegen nimmt die Perspektive des Nutzers ein: wann sehe ich ein erstes Element, wann ist eine erste Interaktion möglich, wann ist das größte DOM Element geladen, wie stark verschieben sich die Layoutelemente beim Laden (der Cumulative Layout Shift ist kein Zeitwert)?

Leistungsreport aus Matomo Verhalten

Zurück zu Matomo: der Leistungsbericht enthält folgende Metriken:

  • Netzwerkzeit: Wie lange dauert es, die Verbindung zum Server herzustellen? (D.h. die DNS-Übersetzung der Anfrage und die TCP Verbindung)
  • Serverzeit: Die Antwortzeit des Servers an den Browser.
  • Übertragungszeit: Die Zeit, die der Browser benötigt zum Download der Serverantwort.
  • Zeit für DOM-Prozessierung: Die Zeit die verstreicht, bis eine Interaktion mit der Seite möglich ist (z.B. einen Navigationslink anzuklicken). Dieser Wert dürfte dem Wert Googles Time to interactive (TTI) entsprechen.
  • Zeit für DOM-Komplettierung:  Die Zeit, bis alle DOM Elemente geladen sind (insbesondere Bilder und Videos)
  • Ladezeit: Zeit, die der Browser benötigt, um Javascript-Code auszuführen, der auf das Ereignis window.load wartet, nachdem das DOM vollständig gerendert wurde.
  • Seitenladezeit: die Summe aller vorstehenden Metriken.

Bei manchen Ladeprozessen werden verschiedene Zeiten auch einmal nicht erfasst, daher sind die Durchschnittswerte bestenfalls Näherungswerte. Hier ein Ausschnitt aus dem kumulierten Report zu drei Seiten, Metriken in Millisekunden.

Der seitenspezifische Excelexport des Leistungsreports enthält sehr viele Daten. Für jede Seite werden auch die Besuchszeiten, Einstiege, Ausstiege, Absprünge, kleinste und maximale Zeitwerte der einzelnen Parameter angegeben. Der Report zeigt ansonsten die Zeiten in Millisekunden für die einzelnen Stationen (Es handelt sich um Blogartikel, deren URI ich der Übersichtlichkeit halber gelöscht habe).

Informieren Sie sich gerne über mein Angebot über Schulung und Beratung zur Webanalyse mit Matomo.

Die Parameter bei Googles Page Speed Insights

First Content Paint gibt die Periode bis zu dem Zeitpunkt an, zu dem das erste DOM Element beginnt zu laden. Iframes werden dabei nicht berücksichtigt. Zeiten bis 2 Sekunden liegen im grünen Bereich.

Speed Index gibt an, wie schnell eine Seite lädt; dabei ist aber nicht die Ladezeit absolut gemeint. Es kommt vielmehr darauf an, ob vom Start weg Inhalte schnell geladen werden. Wenn die ersten 50% der Seite schnell laden, ist der kumulierte Speed Index niedriger, als bei einer Seite, in der die ersten 50% langsamer laden aber dann die Ladezeit insgesamt bei beiden identisch ist. Google gibt an, dass es für die Messung des Speed Index den Ladefortschritt des Frames mit Hilfe eines Videos misst. Bis 4,3 Sekunden ist eine Website im grünen Bereich.

Largest Contentful Paint gibt die Zeit an, bis das umfangreichste Content Element im sichtbaren Browserbereich geladen ist. Die LCP Metrik gibt die Zeit, die es braucht, bis das größte Bild oder der größte Textblock gerendert ist. Im Viewport nicht sichtbare Elemente fließen nicht in die Wertermittlung ein. Nach Google sollte der LCP Score unter 2,5 Sekunden liegen.

Time to interactive gibt die Zeit an, die verstreicht, bis ein Nutzer mit ihr interagieren kann. Der Wert sollte unter 3,8 Sekunden liegen.

Total blocking Task ist der Zeitabschnitt zwischen dem First Contentful Paint und der Time to Interactive. Überschreitet dieser Abschnitt die Dauer von 50 Millisekunden, dann ist die überschüssige Wartezeit die Total Blocking Time.

Beispiel für Cumulative Layout Shift

Cumulative Layout Shift wird als Wert zwischen zwei Ladezuständen gemessen. Er ist ein Produkt aus zwei Werten: impact fraction*distance fraction. Impact fraction fragt, welchen prozentualen Anteil ein verschobenes Element im Layout hat und addiert den Anteil hinzu, um den es verschoben wird. Wenn die zwei Drittel des Fensters durch Nachladen eines Headers um ein Drittel nach unten verschoben wird (d.h. der Header nimmt die Hälfte des verschobenen Elements ein), dann ist der impact fraction 99 % oder 0,99. Die distance fraction gibt dann den Wertanteil, um wieviel das Element prozentual verschoben wurde, also 33 % oder 0,33. Der CLS errechnet sich dann aus dem Produkt beider Werte: 0,33

Das Diagramm soll noch einmal veranschaulichen, dass Matomos Leistungsreport am technischen Ladeprozess einer Website orientiert ist, während Googles Page Speed Insights aus der Sichtweise des Nutzers orientiert ist.

Diagramm Matomo Leistungsreport und Googles Page Speed Parameter

Rezension: Content Marketing | Das Praxishandbuch für Unternehmen

Content Marketing | Das Praxishandbuch für Unternehmen, Sepita Ansari, Wolfgang Müller et al. mitp Verlag 2017

Um es vorweg zu sagen, das Buch hat einige Vorzüge, die leider auch zugleich in gewisser Hinsicht Nachteile sind. Das Versprechen des Praxisbezugs, der im Titel angesagt ist, wird eingelöst. Die Beispiele sind sicher hilfreich und anschaulich, aber auch nicht für alle Branchen in gleicher Weise umzusetzen und manchmal auch sehr speziell (s.u.).

Das Buch ist eine Gemeinschaftproduktion mehrerer Autoren/innen der Agentur Catbird Seat. Vor- und Nachteile auch hier: die unterschiedlichen Perspektiven auf das Thema sind aufschlussreich, bedingen aber auch gewisse Inkonsistenzen im Aufbau.

Methodisch zeigt das Buch zahlreiche Schwächen bzw. empfiehlt Methoden ohne kritische Einschränkungen, z.B.: Die Affinitätskategorien sowie die weiteren Kategorien aus der Google Webanalyse (S.43f, sie heißen mittlerweile Kategorien gemeinsamer Interessen) sollen Grundlage für Themen- und Keywordfindung bei der Zielgruppe sein. Möglicherweise schwindet hier die Datengrundlage schnell, wenn keine App-Werbe-IDs oder Double-Click Daten in Firmenrechnern gespeichert sind. Zumal etliche Browser third-party-Cookies ohnedies ausschließen – so ist die Datenbasis möglicherweise nicht nur verschoben, sondern auch wenig belastbar. Auswertungen zeigen, dass für etwa 30 % der Besucher demografische und Interessendaten ausgegeben werden. Welchen Minimaltraffic benötige ich, um belastbare Daten zu erhalten?

Aber von vorne: Die Kapitel-Struktur des Buches folgt dem klassischen Aufbau von Content Marketing. Content Strategie mit ihren Elementen, Planung, Produktion, Distribution und Controlling. Führungsinstrumente wie die SWOT Analyse werden an verschiedenen Punkten eingesetzt. Eine interessante Anregung ist, dieses Instrument auf verschiedenen Ebenen wie Zielgruppenansprache, Audit, Content für die Customer Journey und zuletzt für die Strategieformulierung einzusetzen.

Die Komplexität der Thematik rund um Content Marketing bringt immer wieder die Ordnungssystematik ins Wanken. Ziele müssen messbar sein, aber KPI Details aus der Webanalyse gehören in den Controlling-Bereich. Das Kapitel Storytelling hätte ich nicht im Strategiekapitel erwartet, sondern im 4. Kapitel: Content Formate und Produktion.

Content- und Themenplanung

Content- und Themenplanung – auch hier gute Ansätze gemischt mit problematischen Aussagen. Das Hygiene-Hub-Hero-Modell von Google strukturiert grob die zeitliche Abfolge der verschiedenen Formate. Themenfindung geschieht dann anhand der typisierten Suchanfragen während der Customer Journey, die nach der etwas abgewandelten AIDA- Formel die unterschiedlichen Fragestellungen der Besucher thematisiert und beantwortet. Das ist ein interessanter Ansatz, der im Folgenden aber wieder relativiert wird. Beim Keyword Clustering tauchen nämlich wieder Ungenauigkeiten auf: Eine Navigationssuche sucht eine bestimmte URL, ggf. sogar thematisch eingegrenzt. Suchmaschinen ersetzen hier die Navigation oder interne Suche einer Seite. Eine Transactional Search besteht selten aus einer Shorttailanfrage (Poloshirt) sondern meist aus einem Longtail: “Poloshirt unter 30 €” “Poloshirt online kaufen” usw.

Kanalplanung (mit Unterstützung der Webanalyse), Redaktions- und Ressourcenplanung werden kurz und bündig dargestellt und im so genannten Content-Management-Prozess zusammengefasst.

Contenterstellung und -distribution

Kapitel 4 gibt einen Überblick über die Optionen der Content-Erstellung (Inhouse oder Outsourcing) und die Content-Formate. Beim Lesen des Kap.4 habe ich mich gefragt, ob das zu sehr aus der Agenturperspektive und damit des Projektmanagements geschrieben ist; denn Content Marketing ist ein permanenter Prozess im Unternehmen, der einzelne Maßnahmen als Projekt organisiert.

Im 5. Kapitel geht es um Content-Distribution, beginnend mit einer kurzen Einführung in die Unterschiede von Owned, Paid und Earned Content. Hier werden die Themen SEA, Social Media und PR kurz abgehandelt. In SEA hätte ich mehr Tipps für Anzeigentexte erwartet, während die Frage nach der Keywordselektion mehr Platz einnimmt (was ich aber eher in einer Arbeit über Advertising erwarte). Auch der Satz, man müsse nun eine Landingpage finden, hilft bei der Frage, was eine solche gute Landingpage ausmacht, nicht weiter. Einen Hinweis auf optimierende A/B-Tests habe ich nicht gefunden. Im Unterkapitel PR hätte ich zumindest auch den Hinweis auf Online-PR erwartet. Das Thema Linkbuilding schließt das 5. Kapitel ab, aber m.E. ist auch dieses Kapitel deplatziert. Das Beispiel von brokeandbookish ist anscheinend eine Blogparade, die Blogger einlädt, zu vorgegebenen Themen zu schreiben. Das Beispiel ist nun schon sehr speziell, gefolgt vom Allerweltstipp: “Ohne den richtigen Content bekommt man keine guten Links” (168). Die ganze Thematik und speziell die Anatomie eines perfekten Backlinks gehört dann auch eher in Kapitel 6: SEO.

Content-Marketing für SEO / Content Controlling

Auch das SEO Kapitel ist nicht schlüssig durchstrukturiert. Es beginnt mit Googles Algorithmus und seiner Geschichte. Onpage-Optimierung startet bei der Keywordrecherche und geht dann über in ein neues Unterkapitel Wettbewerbsanalyse (181) um dann die Optimierung des HTML Codes im Rahmen der Onpage-Optimierung fortzusetzen. Nach Spezialitäten wie Rich Snippets kommt plötzlich die Frage auf, wann Google weitere Sitelinks in den Treffern zeigt (was zunächst mit SEO wenig zu tun hat), um dann auf die robots.txt Datei überzuspringen. Auf Geotargeting folgt nun plötzlich die Strukturierung mit Überschriften (193) – Bilder und Grafiken gehen dann fast ganz unter. Nach technischen Optimierungstipps kommt nun wieder die Textoptimierung u.a. mit der Keyword Frequenz bei inverser Dokumentenhäufigkeit (WDF*IDF) (209f) usw. Systematisches SEO geht anders.

Auch das letzte Kapitel zum Controlling fällt schwach aus. Bei Sitzungsdauer kein Wort davon, dass Ausstiegsseiten standardmäßig keine Sitzungsdauer haben und Absprungseiten ebenfalls die Besuchsdauer 0. Beim Kampagnentracking kommt zwar das Tagging zu Ehren, was aber fehlt ist, dass Ziele auf mehrere Quellen attribuiert werden müssten. Lesedauer, Scrolltiefe und die KPIs (besser aufbereitet) aus dem anfänglichen Zielekapitel wären hier am Platz gewesen.

Webanalytics für 135.000 €?

Noch ein Bonmot zum Schluss: Die Autoren berichten begeistert von der neuen Entwicklung von Googles Marketing Suite Google Analytics 360. Die Begeisterung interessierter Firmen dürfte bei einem Startpreis von 135.000 € p.a. ziemlich schnell abflauen.

Fazit: Für Einsteiger in das Thema mag das Buch hilfreich sein, insbesondere wegen der Beispiele, einiger hilfreicher Tools und des Anreißens zahlreicher dem Content Marketing zugehöriger Aspekte. Wer tiefer in die Materie einsteigen will, sollte zu anderen Titeln greifen.

Matomo Update 4.1 – Internal Server Error!

Vor ein paar Tagen startete ich die Aktualisierung auf die neue Version Matomo 4.1. Zunächst sah alles gut aus. Als ich dann das Matomo-Verzeichnis aufrief – kam die berüchtigte Fehlermeldung: Internal Server Error 500.

Da nichts mehr ging, prüfte ich zunächst die PHP Einstellung. Die war zwar nicht topaktuell aber mit PHP 7.3 nicht unbedingt fehlerverdächtig.

Auf der Suche nach Lösungen stieß ich auf Gerhard Kerners Technikblog, der empfahl, in der Datenbank die Version auf die Vorgängerstufe herunterzusetzen. In der Tabelle piwik***_option reduzierte ich die Version. Ein neuer Startversuch schlug genauso fehl.

Die einzige Lösung war hier das manuelle Update. Die heruntergeladene Version Matomo 4.1 habe ich via FTP (im binären Modus) in mein Matomoverzeichnis hochgeladen. Beim neuerlichen Aufruf von Matomo kam nun wieder die vertraute Rückmeldung, dass die Datenbank noch aktualisiert werden müsse. Gelesen, getan und die neue Version läuft wieder wie am Schnürchen.

Ich habe die Serverlogs nicht geprüft, ich vermute aber, dass das Plugin Bot Tracker den Fehler verursacht hatte. Beim neuerlichen Einloggen kam die Warnung, dass das Plugin mit dieser Version nicht kompatibel sei. Ich hatte es zwar deaktiviert, nun aber völlig gelöscht.

Also – wenn das (halb-)automatische Update nicht klappt, kommt man mit dem manuellen Update ohne Datenverlust ans Ziel.

Nachtrag vom 11.02.2021: auch das Update von früheren Versionen als 4.1.0 auf 4.1.1 erzeugt einen Servererror 500 bei mir. Auch hier hat das manuelle Nachinstallieren geholfen. Das Update von 4.1.0 auf 4.1.1 líef dagegen reibungslos.

Weshalb heißt der Bindestrich eigentlich „Bindestrich“?

Bekanntlich unterscheiden sich waagrechte Striche in Texten ja nach ihrer Funktion typografisch. Die gestalthafte Unterscheidung von Binde- und Gedankenstrich, das ist Typografische Semiotik in nuce.

Gedankenstriche öffnen im Textfluss einen Zwischenraum. Zwischen den Gedankenstrichen steht, syntaktisch meist eigenständig, ein kurzer Text. Er unterbricht und ergänzt den Gedankenfluss des gesamten Textes an dieser Stelle. (Andere Autoren wie z.B. Eco verwenden stattdessen lieber Klammern, weil ihre Zwischeneinwürfe für Gedankenstriche meist zu lang sind.) Der Gedankenstrich ist schmaler und länger als der Bindestrich und kann u.a. mit Hilfe der Tastatur erzeugt werden: bei gedrückter alt-Taste 0150 im Ziffernblock eingeben: –. Manche Systeme erraten auch, wenn es sich um einen Gedankenstrich handelt und konvertieren das beliebte Minuszeichen – automatisch in einen Gedankenstrich. Allerdings nicht zuverlässig.

Der Bindestrich als Trennungszeichen

Der Bindestrich ist kürzer und fester, wird also typografisch unterschieden. Allerdings wundere ich mich, weshalb er Bindestrich heißt. Bindestriche kennen viele westeuropäischen Sprachen – andere vielleicht auch, aber das entzieht sich meiner Kenntnis. Wenn der reveil-matin klingelt, ist es bald Zeit für den Check-out.

Das Deutsche weist allerdings eine Besonderheit auf, die andere Sprachen nur rudimentär kennen: die Komposita. Hier können, meist in einer genitivischen Verknüpfung, ziemlich viele Begriffe aneinandergehängt werden. Berühmt berüchtigt ist die Donaudampfschifffahrtsgesellschaftskapitänsmütze, die immer noch verlängert werden kann; z.B. so: Donaudampfschifffahrtsgesellschaftskapitänsmützenschirm.

Mir geht es aber hier gar nicht um diese Wortungetüme. Bindestriche helfen beim Lesen am Bildschirm. Besonders empfohlen sind sie, wenn Missverständnisse oder ungewöhnliche Konsonantenhäufung drohen. Z.B. beim “Staubecken” (Fall 1) oder beim „Instagrammotto“ (die beiden m hintereinander ergeben mit “gramm” einen möglicherweise ablenkenden alternativen Bedeutungskern). Also trenne ich der Lesbarkeit zuliebe solche Worte: Instagram-Motto. Deshalb sollte der Bindestrich doch eigentlich Trennstrich heißen.

Weiterer Einsatz des Trennungsstrichs/-zeichens

Was trennt der Strich denn noch? Bei der Kombination von Adjektiven z.B. ist der Trennungsstrich sinnentscheidend. Es ist halt ein Unterschied, ob ich bayrischstämmig (aus Bayern stammend) oder bayrisch-stämmig (= bayrisch + stämmig) bin.

Und am Ende einer Zeile kann der Trennstrich tatsächlich ein mehrsilbiges Wort trennen. Solche Trennzeichen in ihrer klassischen Funktion sind im Internet allerdings selten. Das liegt zum Einen daran, dass hier ein linksbündiger Flattersatz vorherrscht und die Auflösung des Ausgabegerätes die Textgestalt mitbestimmt. So könnten Trennstriche am Zeilenende durch auflösungsbedingtes Verschieben der Textelemente plötzlich mitten in den Text geraten.

Aber der Bindestrich hat auch sein typografisches Namens-Recht, nämlich da, wo er eine “Fernbindung” knüpft. So z.B. wenn ich über Block- oder Flattersatz schreibe, über Rechts- oder Linksverkehr usw.

Zugegeben: Typografisch gibt es keinen Unterschied zwischen Binde- und Trennstrich. Aber es ist ggf. ganz nützlich, dass man sich über die Funktion der Striche hinsichtlich der Lesbarkeit auch terminologisch Klarheit verschafft.

Semantische Kurzschlüsse beim Einsatz von Präpositionen

Ein Kurzschluss führt bekanntlich zu einem Ausfall, ggf. brennt eine Sicherung im elektrischen Kreislauf durch. Ähnlich stelle ich mir semantische Kurzschlüsse vor, die im menschlichen Hirn geschehen, wenn beim Texten zielsicher die falsche Präposition gesetzt wird. Ich beobachte schon seit vielen Jahren, dass die genaue Verwendung von Präpositionen überlagert wird von teils bedauerlichen, teils lustigen Fehlgriffen.

Präpositionen heißen auf Deutsch Verhältniswörter, bekanntlich, weil sie zwei Dinge/Positionen i.d.R. in ein Verhältnis bringen wie vor, über, hinter usw. Im übertragenen Sinne beziehen sie eine Handlung oder Haltung auch auf ein Objekt; und hier liegt dann oft der Hase im Pfeffer. Hinlänglich bekannt ist die Unsicherheit bei der Zuordnung der richtigen Präposition bei “entscheiden” und “entschließen”. Ich habe mir hier eine Eselsbrücke gebildet, dass nämlich bei „entschließen“ begrifflich das Schloss enthalten ist, das bekanntlich etwas zu-schließt.

Nun zum Kurzschluss: Ein schönes Beispiel bietet das Instagram-Motto der Firma Metro:

METRO Deutschland GmbH

Inspiriert von der Leidenschaft am Kochen. Das teilen wir hier mit dir. Und du mit uns unter #gourMETRO” (Hervorhebung von mir).

Screenshot Instagram Metro mit schiefem Motto Leidenschaft am Kochen

Nun ja; es heißt Leidenschaft für etwas oder zu etwas, also Leidenschaft für das Kochen oder Leidenschaft zu(m) Kochen. (Selbstverständlich geht es mir hier nicht um einen erweiterten Infinitiv à la: …,um endlich wieder mit Leidenschaft zu kochen; zur Not kann man die Leidenschaft auch am Kochen halten.)

Was ist dem/der Texter/in von Metro passiert? M.E. ein klassischer emotiver Kurzschluss, der die Katachrese ausgelöst hat. Assoziiert wurde hier wohl die Freude, die viele am Kochen haben. Diese mächtige Assoziation im Hintergrund öffnete der Präposition “am” die Tür zum Text und in die missglückte Kombination mit der Leidenschaft.

Hier könnte manche(r) einwenden, dass Leidenschaft und Freude gar keine so enge semantische Allianz bilden. Ich denke dennoch, dass emotionale “Überspannungen” ein Erklärungsmodell für den schiefen Einsatz von Präpositionen bieten.

WordPress-Transfer einfach erklärt

Transfer einer WordPress Installation

Es kommt häufiger vor, dass man vor der Aufgabe steht, eine WordPress Installation zu transferieren. Eigentlich ist der Vorgang nicht besonders kompliziert, aber die Schritte sollten in der richtigen Abfolge geschehen.

Zunächst: was heißt Transfer und welche Fälle sind damit gemeint? Es kann sein, dass ich meine WordPress-Seite lokal auf meinem Rechner entwickle. Hierfür ist z.B. Xampp (für die gängigen Betriebssysteme erhältlich unter apachefriends.org) eine sehr gute Umgebung, die alle nötigen Funktionen für ein dynamisches CMS bereithält. Die neue Installation kommt (Ende 2020) mit PHP 8.0. Oder ich möchte meine WordPress-Seite zu einem anderen Provider übertragen. Oder ich habe eine neue Seite mit WordPress unter einer Subdomain entwickelt (z.B. neuesite.meinedomain.tld) und  möchte zuletzt die alte Seite abschalten und meine Domain mit der neuen Seite verknüpfen. In mindesten zwei von den drei Fällen ändert sich der Domainname, und in zwei Fällen von dreien, muss ich eine neue Datenbankverbindung einrichten.

Ich gehe hier auf den Umzug einer lokalen WordPress-Instanz auf einen Provider ein.

Auf Xampp liegt die WordPress-Installation im Rootverzeichnis htdocs in einem Unterverzeichnis. Heißt das Unterverzeichnis “projekt” dann lautet die Xampp-Domain http://localhost/projekt

Platz auf dem Server des Providers schaffen

Zunächst brauche ich eine neue Heimat für mein WordPress, diesmal auf dem Server meines Providers. Die richte ich mit einem FTP-Programm wie Filezilla ein. Die Zugangsdaten gibt mir mein Provider. In dieses Verzeichnis ziehe ich nun per Drag & Drop alle WP Ordner und Dateien.

Domain mit dem Verzeichnis verknüpfen 

Das Verzeichnis muss ich beim Provider nun als Ziel meiner registrierten Domain angeben. Hierfür haben Provider die Domainverwaltung eingerichtet. Ich ordne hier der Domain einfach mein neu erstelltes Verzeichnis zu:

Serververzeichnis anlegen

Bis der Server die Weiterleitung auf das Verzeichnis registriert hat, können schon einmal 20 Minuten ins Land gehen.

Die Datenbank anpassen

In der Zwischenzeit exportiere ich die Datenbank aus Xampp mit Hilfe der Adresse http://localhost/phpmyadmin. Ich rufe meine Datenbank auf und markiere alle Tabellen. Mit Klick auf Export bietet mir der folgende Bildschirm den einfachen oder nutzer-angepassten Download. In der Regel genügt der einfache, die SQL Datei landet im Download-Ordner auf dem Rechner.

Datenbank exportieren

Beim Provider lege ich eine neue Datenbank an und notiere mir genau Datenbanknamen, Nutzernamen, Passwort und den Datenbank-Servernamen. In die neue noch leere Datenbank beim Provider importiere ich die DB von meinem Rechner. Es ist der umgekehrte Vorgang wie beim exportieren. Ich rufe die noch leere Datenbank auf, klicke oben auf Importieren und lade die Datenbank von meinem Rechner hoch.

Jetzt ist also WordPress auf dem Server und die Datenbank in der Datenbankverwaltung des Providers. Nun muss ich noch einige Einstellungen vornehmen, genauer gesagt zwei.

Zunächst gehe ich in die Datenbank mit Hilfe des bekannten Programms und rufe die Tabelle _options auf (welches Präfix du hast, weiß ich natürlich nicht). 

Datenbank in options bearbeiten

Die beiden ersten Zeilen enthalten noch die alte Adresse, über bearbeiten rufe ich die beiden Zeilen nacheinander auf und überschreibe die alte lokale Adresse mit meiner Domain, also https://meinedomain.tld.

Datenbanktabelle-Feld überschreiben mit neuer URL

WordPress mit der neuen alten Datenbank bekannt machen

Würde ich jetzt die Seite aufrufen, käme eine Meldung die einen Datenbankfehler verkündet. WordPress findet selbstverständlich die alte Datenbank auf meinem Rechner nicht. Ich muss also die alte Datenbank unter neuem Namen erst mit der WordPress-Instanz auf dem Server bekannt machen.

Dazu brauche ich nochmal das FTP Programm und suche gleich unterhalb meines Verzeichnisses die Datei config.php. Der rechte Mausklick öffnet u.a. die Frage, ob ich die Datei ansehen oder bearbeiten. Ja das will ich (ggf. muss ich ein Bearbeitungsprogramm auswählen, z.B. Wordpad) und komme in die Datei. Hier überschreibe ich ziemlich weit oben die Datenbank-Parameter mit den neuen, die mir mein Provider gegeben hat.

Hier die config.php, wie sie auf Xampp aussieht:

Config.php anpassen für neue Datenbankverbindung

Die grünen Infos ‘wordpress’, ‘root’, ‘localhost’ müssen überschrieben werden und das Passwort eingefügt werden. Mit Schließen der Datei im Bearbeitungsprogramm wird sie auch an den Server übertragen. 

Zusätzlich kann ich in die config.php noch zwei Zeilen unterhalb der Datenbank-Deklaration einfügen (natürlich kommt hier wie oben in die Datenbank die richtige, also meine Domainadresse):

define( ‚WP_HOME‘, ‚https://meinedomain.tld‘ );
define( ‚WP_SITEURL‘, ‘https://meinedomain.tld‘ );

Selbstverständlich muss ich genau darauf achten, kein Zeichen (Anführungszeichen, Strichpunkt) aus Versehen zu löschen, dann funktioniert es nicht mehr.

Wenn ich jetzt im Browser die Domain aufrufe, sollte die WordPress-Seite zu sehen sein. Kommt eine Fehlermeldung, muss ich alle Schritte und Einträge noch einmal überprüfen. Da Capo!

Übrigens ist es bei WordPress nötig, nochmals alle Funktionen zu überprüfen, also Bilder, Downloads, Anmeldungen usw. Ggf. haben bestimmte Funktionen oder Anwendungen noch den alten URL. Dann ist manuelles Nacharbeiten angesagt.

Lean Content Marketing – Rezension zum Buch von Von Hirschfeld und Josche

„Lean Content Marketing“ von Sascha Tobias von Hirschfeld / Tanja Josche
dpunkt.verlag
Erscheinungstermin: Dezember 2017
Seiten: 318
ISBN: 978-3-96009-065-6

Ein Buch über Content-Marketing – das ist so etwas wie Content über Content zu entwickeln. Die Rezension eines solchen Buches wäre dann Content dritten Grades. Die meisten Bücher über Content-Marketing setzen den Fokus auf die organisatorische Einbindung des Content Marketing in die Marketingprozesse – Stichworte sind: Audit – Strategie – Produktion – Distribution und Controlling. Die Themen „Erstellen wirkungsvoller Inhalte, ihre textliche Gestaltung und die Wirkungsanalyse“, sind mehr den Texterbibeln überlassen. Die meisten Content-Marketing Darstellungen bleiben auf der formalen Ebene; beschreiben somit die Formate und geben Tipps zur Ausgestaltung.

Das Buch von Sascha Tobias von Hirschfeld und Tanja Josche legt den Schwerpunkt auf die organisatorische Einbettung des Content Marketing ins Unternehmen – allerdings mit einem spezifischen Fokus. Seine Besonderheit drückt schon der Titel aus: Lean Content Marketing beschreibt einen Ansatz für Unternehmen, die in das Content Marketing einsteigen. Die dann aber nicht gleich alle Register ziehen wollen oder können, sondern mit smarten Inhalten den Markt erst erkunden und so durch Erfahrung in professionelles Inhalts-Marketing hineinwachsen.

Wie bei so vielen Büchern über Content Marketing gilt auch hier: Es kommt nicht ohne oft wiederholte Gemeinplätze aus: Zielgruppen identifizieren, Buyers Persona beschreiben, werbliche Aussagen zurückhalten zugunsten qualitativ hochwertigen Contents, Kanäle nach der Zielgruppe wählen usw. Schon an dieser Stelle würde ich mir wünschen, dass diese Gemeinplätze auch einmal kritisch hinterfragt würden. Z.B. Zielgruppen: Je nach Unternehmenszielen in B2B oder B2C sind die Zielgruppen mehr oder weniger trennscharf beschreibbar. Ein Händler für Felgenschleifmaschinen wird sicher eine konkretere Zielgruppe vor Augen haben, als ein Softwareunternehmen, das CRM für Selbständige und KMU entwickelt. Oder die Buyer Persona: Ihre demografischen Daten sind oft willkürlich gewählt – ist es nicht vielmehr so, dass man sie für einen fiktiven Dialog entwirft, der die eigene Entwicklung einer Kommunikationsstrategie erleichtern soll?

Sagen der/die Autor*in doch selbst: “Die Informationsbedürfnisse der Zielgruppen sind heute höchst dynamisch. Unternehmen müssen sich flexibel und schnell an die Erwartungen und Ansprüche der Zielgruppen anpassen können.” (Vorwort S VIII) Semiologisch gesprochen: Die eigenen Anspruchsgruppen praktizieren volatilen Code, dem mit Selektionsprozessen nach statischen Parametern schwer beizukommen ist.

Während Content Marketing in großen Unternehmen schon längst angekommen ist, werden KMU und Selbständige sozusagen noch häufig vor der Tür stehen. Gerade für sie ist das Buch aus mehreren Gründen sehr empfehlenswert.

Der Lean Content Marketing Ansatz

Einerlei, ob Gründer oder schon länger am Markt: Unternehmen, die ins Content Marketing einsteigen, finden in dem Lean Ansatz einen sehr guten Türöffner. Von Hirschfeld und Josche führen diesen Ansatz sowohl auf strategischer wie operativer Ebene fast durchgehend aus. Das gilt für die Verankerung des Content Managements im Unternehmen (Kultur und Denke, Content als Produkt, Unternehmer als Verleger S. 28), für die grundlegenden Kommunikationsprozesse (von jedem Feedback lernen S.14), Audit und SWOT Analyse (S.16) bis hin zur Themenfindung (Sweet Spot S.26) und Wahl des Kommunikationskanals.

Besonders erwähnen möchte ich die ausführliche Darstellung agiler Methoden und des agilen Projektmanagements (S.45 ff) sowie seine Anwendung auf die Marketing-Prozesse.

Kapitel 2, das sich insgesamt mit den Vorbereitungen und Voraussetzungen des Lean Content Marketing beschäftigt, hat m.E. allerdings auch einige Schwächen. Der Blog als Schaltzentrale des inhaltlichen Marketings ist hier zwar angebracht. Seine detaillierte Beschreibung und Vermarktung hätten aber besser in das Kapitel über die Formate Kap. 3 gepasst. Zumal wichtige Vermarktungsfunktionen des Blogs weder hier noch in Kap. 3 beschrieben werden.

Das Kapitel 2 schließt mit Betrachtung über die Erfolgsmessung – m.E. hätte sie ans Buchende gehört und zum anderen ist sie methodisch (Gewinnung der KPIs aus Webanalysen) sehr oberflächlich gehalten. Das Controlling gerade des Content Marketing ist m.E. deutlich komplexer, als es hier vorgestellt wird – aber das lässt sich mit dem Lean Ansatz schwer entschuldigen.

Kommen wir wieder zu den Vorzügen des Buches (Auswahl):

  • Gerade für Einsteiger sehr gute Zusammenfassungen, hilfreiche Checklisten (z.B. für Einstieg ins CM S.57f) und Listen zu Tools (z.B. S. 42 Content Marketing Tools)
  • Straffe Charakterisierung der Content-Formate und Kanäle (S.63ff), Entwicklung von Formaten für Lean CM (Minimum viable Content S.60f)
  • Ausführliche Hilfestellungen für große Formate wie Whitepapers und Case Studies (S.70ff)
  • Insgesamt ist der Überblick über die B2B Formate gelungen, v.a. das letzte Kapitel über interaktive Formate gibt viele Anregungen für diesen Content-Typus (S.93 ff)
  • Sehr gute Beschreibung des Content Kuratierens und Recycelns (S.125 ff)
  • Ausführliche Darstellung viraler Methoden wie Newsjacking
  • Trends des Content Marketing in Richtung Automatisierung, KI, Bots etc. S.239 ff)

Weshalb in Kapitel 3 das Help-Hub-Hero Modell Googles (hier Hygiene-Hub-Hero) hinter den Redaktionsplan gestellt wird? (S 101 ff) Wäre es nicht als Formatvorlage oder Textformel besser bei den Formaten aufgehoben? Das Problem jeder Darstellung von Content Marketing ist, dass jeder Prozess und auch jedes Format unter verschiedenen Gesichtspunkten wie in einer mehrdimensionalen Matrix betrachtet werden kann.

Bei der Frage: selbst produzieren oder outsourcen fiel mir die verengte Sicht auf Texterplattformen auf – sie alle auf das Niveau der 1 Cent/Wort Anbieter zu drücken, wird dem Anbietermarkt nicht gerecht. (S.108)

Den Leser bei der Stange halten – so etwas muss in jedes Content Marketing Buch hinein – ich halte den Autoren zugute, dass sie hier erst gar nicht versuchten, originell zu sein. (S.111 ff) Dagegen wird das Thema Storytelling (S.116 ff) sehr anschaulich und ausführlich entfaltet – auch im Hinblick auf das visuelle Storytelling. Das Storyformat wird dabei auch im Verlauf der Customer Journey vom Erstkontakt bis zum Kaufprozess dargestellt (Kap. 5). Im Übrigen: Hier hätte auch das Help-Hub-Hero-Modell ergänzend gut gepasst.

Unified Content Marketing – das Ziel jeder Marketing Organisation

Content Marketing hat die Aufgabe, die eigene Zielgruppe zur richtigen Zeit am richtigen Gerät zu erreichen. Eine volatile Organisation des Marketing unter dem Titel Unified Content Marketing ist die Voraussetzung hierfür. “Dazu bedarf es einer Systemarchitektur, die den gesamten Content-Prozess von der Planung über die Produktion und Speicherung bis hin zur Bereitstellung für interne und externe Umgebungen unterstützt.” (S 136) Leider fehlt hier ein hilfreicher Hinweis, welche Software eine solch komplexe Organisation unterstützt – möglicherweise deshalb, weil es kein ausgereiftes Modell gibt.

Kapitel 4 beschäftigt sich mit den Distributionskanälen, unterschieden nach Owned, Earned und Paid Content und gibt einen mehr oder weniger genauen Überblick über die verschiedenen Kanäle. Die sozialen Medien werden ohne Differenzierung pauschal abgehandelt, der Blog als owned Media taucht hier im Buch zum dritten Mal auf. Gelungen ist das Unterkapitel Newsjacking: Beim Newsjacking “»injizieren« sie (die Unternehmen, GT) die eigenen Inhalte und Botschaften in aktuelle Nachrichtenströme, um von der Aufmerksamkeit im Markt zu profitieren.” (S.183)

Kritisch sehe ich, dass Advertising in Paid Media recht oberflächlich dargestellt wird, ebenso wie das Targeting (das je nach Plattform unterschiedliche Selektionsmöglichkeiten bietet); das Thema Remarketing entfällt ganz, hätte aber einen guten Platz im Kapitel Content im Kaufprozess haben können.

Das 5. Kapitel zeigt gut, wie Content Marketing sich an die Prozesse des Buying Centers eines potenziellen Kunden anpassen kann. “Die Analyse der Rollen und Motive in einem B2B Buying Center macht deutlich, dass Sie unterschiedliche Personen erreichen müssen, um Ihre Botschaften an den richtigen Stellen im Unternehmen zu platzieren. Bedenken Sie dabei, dass es neben eher fachlich motivierten Beweggründen auch eine soziale Motivation für die Weiterleitung von Inhalten an Kollegen und Vorgesetzte gibt.” (S.204)

Last but not least hätte ich ein vertiefendes Abschlusskapitel über das Marketing Controlling erwartet. Schließlich bieten Webanalyse und Social Insights sehr gute Instrumente, um den Erfolg (oder Misserfolg) des eigenen Content Marketing zu messen und in ROI-Berechnungen einzubeziehen. Die Hinweise im laufenden Text sind m.E. hierfür kein Ersatz.