Die Rolle der Reputation im digitalen Wettbewerb

Angesichts von Milliarden von Websites steht für jeden Surfer die Frage im Raum, wieweit kann ich den Inhalten (Main Content) der Seite vertrauen? Die Guidelines für Quality Rater sollen dafür Anhalte und Beispiele geben, woran man sich bei Beurteilung einer Seite orientieren kann. In den Quality Rater Guidelines erläutert Google die wesentlichen Kennzeichen einer Website, die ihr selbst gestecktes Ziel (mit hoffentlich hohem Qualitätsanspruch) erreichen will. Welche Ziele das sein könnten, listet Google auf Seite 9.

Common helpful or beneficial page purposes include (but are not limited to):

  • To share information about a topic.
  • To share personal or social information.
  • To share pictures, videos, or other forms of media.
  • To express an opinion or point of view.
  • To entertain.
  • To sell products or services.
  • To allow users to post questions for other users to answer.
  • To allow users to share files or to download software

Neben EAT spielt hier der Begriff der Reputation eine entscheidende Rolle. Nehmen wir eine gängige Definition von Reputation, als  “das auf Erfahrungen gestützte Ansehen, das ein Individuum oder eine Organisation bei anderen Akteuren hat. Reputation spielt eine wesentliche Rolle bei der Einschätzung künftiger Verhaltensweisen von A als potenziellem Interaktionspartner von B, v.a. in solchen Situationen, die vertraglich nur unvollständig bzw. gar nicht erfasst werden.”  https://wirtschaftslexikon.gabler.de/definition/reputation-43008

Zwei Dinge scheinen mir hier wichtig: künftige Aktionsweise und das Feld nicht vertraglich geregelter Vorkommnisse. Ein Vertrag zwischen Unternehmen und Kunden kann nicht alle Eventualitäten abdecken – für diese Fälle wünscht man sich eine großzügige Regelung vonseiten des Unternehmens. D.h. Reputation verspricht für zukünftige Transaktionen den Komfort einer hohen Sicherheit in der Abwicklung von geschäftlichen Transaktionen unter allen Eventualitäten. Amazon wäre hier ein exzellentes Beispiel, das seine “Zuverlässigkeit”  mit hohen Einbußen erkaufte.

Entscheidend ist die Reputation bei YMYL Seiten (Your money your life), die also direkt das Leben und Lebensweise/-gestaltung des Menschen betreffen. Also v.a. Nachrichtenseiten, medizinische Seiten, Finanzseiten, aber auch Ernährungsseiten, Sport- und Fitnessseiten.

Wie oder woran kann Reputation erkannt werden?

Selbstverständlich suchen Seitenbetreiber ständig nach Faktoren, die das Ranking ihrer Seiten positiv beeinflussen. Und insbesondere, nachdem die früheren ziemlich “mechanisch” wirkenden Instrumente (Keyworddichte) nicht mehr funktionieren. Das Problem ist allerdings zweierlei: erstens ist das Internet auch nur ein Kommunikationskanal (auch wenn an einem oder beiden Enden des Kommunikationsprozesses nicht unbedingt Menschen stehen) und daher prinzipiell offen für Fake, Täuschung und Betrug. Und zum anderen ist das das Streben nach Sichtbarkeit in Suchmaschinen immer auch ein kompetitiver Prozes. Und der lädt wiederum zu Manipulationen im Sinne des ersten Merkmals ein. Reputation kann man sowohl gewinnen, wie auch verlieren. Ersteres dauert, letzteres kann in einem kurzen Moment geschehen. (man denke an Justin Saccos unbedachten Tweet Anno 2013).

Worin besteht die Reputation einer Seite: A website’s reputation is based on the experience of real users, as well as the opinion of people who are experts in the topic of the website. Keep in mind that websites often represent real companies, organizations, and other entities. Therefore, reputation research applies to both the website and the actual company, organization, or entity that the website is representing. (s.15)

„Use reputation research to find out what real users, as well as experts, think about a website. Look for reviews, references, recommendations by experts, news articles, and other credible information created/written by individuals about the website.“ (S. 16) Weitere Indizien für Reputation sind verliehene Preise (Pulitzer), Expertenmeinungen und -rezensionen, Zitate in Fachpublikationen, aber auch reelle Empfehlungen von Nutzern und Käufern. Wichtig in allen diesen Zeugnissen ist: sie müssen unabhängig vom Beurteilten sein und sollten nicht maschinell oder automatisch erstellt sein

Reputationsbasierte EAT kann in manchen Branchen quasi objektiv nachgewiesen werden – Journalismus, Medizin, Naturwissenschaft. In anderen Bereichen ist auch eine gründliche Alltagserfahrung eine brauchbare Basis für die Einschätzung der Reputation.

„Some topics require less formal expertise. Many people write extremely detailed, helpful reviews of products or restaurants. Many people share tips and life experiences on forums, blogs, etc. These ordinary people may be considered experts in topics where they have life experience. If it seems as if the person creating the content has the type and amount of life experience to make him or her an “expert” on the topic, we will value this “everyday expertise” and not penalize the person/webpage/website for not having “formal” education or training in the field.“ (S. 20)

Reputation auf mehreren Ebenen erkennen

Anscheinend operiert Google mit mehreren Analyseebenen, die bei einem Blogger aber in der Entität seiner Person zusammenfallen. Bei größeren Unternehmen geht es zunächst um das Echo zum Unternehmen. So empfiehlt Google, unabhängige Quellen zu Unternehmen zu suchen. Die parametrisierte Abfrage gibt Google gleich mit auf den Weg: -site:domain.tld ”domain.tld”  ggf. im Verbund mit “review” usw. So wird die Domain gesucht, ohne dass die firmeneigene Website mit einbezogen wird. Die zweite Ebene besteht dann aus dem Autoren der Seite, inwiefern er eine persönliche Reputation aufbauen konnte. In dem Sinne schreibe auch Google:

(For a website) “… the amount of expertise, authoritativeness, and trustworthiness (E-A-T) is very important. Please consider:

  • The expertise of the creator of the MC.
  • The authoritativeness of the creator of the MC, the MC itself, and the website.
  • The trustworthiness of the creator of the MC, the MC itself, and the website.
  • Hier legt Google Gewicht darauf, dass alle Ebenen: Autor, Inhalt, Website in die Beurteilung einbezogen werden.

Allerdings kann auch die erworbene Reputation letztlich Fake sein – wie der Fall des Spiegelredakteurs Relotius zeigt. In einem weiteren Artikel möchte ich daher das magische Triple EAT unter einem etwas veränderten Gesichtspunkt betrachten.

Zitate nach den General Guidelines von Google, publiziert im Oktober 2020.

Wie #Fake entsteht und wohin er führen kann – Felix Beilharz‘ Buch #Fake

Beilharz, Felix. #FAKE: Wie du gefährliche Lügen, Abzocke und Gefahren im Internet erkennst, durchschaust und meidest (German Edition) . Felix Beilharz. Kindle-Version.

Fake-überschwemmt-Internet

Das Buch #Fake von Felix Beilharz sollte man zur demokratischen Pflichtlektüre erklären. Fake gab es schon immer, das Vortäuschen falscher Tatsachen gehörte zur Diplomatie, zur Manipulation von Versammlungen und Parlamenten. Verschwörungsmythen begannen schon mit der Fähigkeit des Menschen zu kommunizieren. Täuschung und Lüge bekamen aber spätestens 2016 eine neue Qualität, als der schwere Verdacht aufkam, dass die Präsidentschaftswahlen mit massiven digital gesteuerten Datenströmen manipuliert wurden. Internet und soziale Medien fungieren hier als Brandbeschleuniger.

Beilharz’ Buch warnt: Fake ist alles andere als harmlos, vielmehr werden Fakes bewusst eingesetzt, um den common sense humaner Gesellschaften zu zerstören. “Es reicht, dass wir die Zuverlässigkeit und Vertrauenswürdigkeit grundsätzlicher Prozesse und Abläufe zumindest mal prinzipiell in Frage stellen. Die wenigsten gehen auf die Straße und rufen „Lügenpresse“ oder „Die Wahlen sind manipuliert“ oder stürmen gar den Reichstag, um sich „ihr Parlament zurückzuholen“. Aber das schleichende Gefühl, dass da vielleicht doch etwas dran sein könne, dass das ja nicht alles nur erfunden sein könne oder dass ein wahrer Kern ja den meisten Geschichten innewohne, DAS ist die große Gefahr hier.” (Pos. 339, Kindle)

In dieser Situation einer hochgradigen Verunsicherung gibt nun das Buch einen Leitfaden an die Hand: mit gesundem Menschenverstand und etwas technischem Wissen Fakes zu erkennen und gesellschaftlichen wie persönlichen Schaden zu verringern.

Was für Fake empfänglich macht

Empfänglichkeit für Fakes liegt begründet in Oberflächlichkeit der User. An dem Punkt sollte man präzisieren: es ist wohl eher die Atemlosigkeit, mit der wie durch die endlosen Gänge des Internet und der sozialen Medien hecheln, die uns keine Zeit mehr zur Reflexion lässt. Entschleunigung und Internet-Diät wären angesagt. “Unsere Oberflächlichkeit ist kein neues Phänomen. Bereits 2016 kam eine Studie der Columbia University zu der Erkenntnis, dass 59 % der Links, die über Twitter geteilt werden, keinen einzigen Klick erzielen – auch nicht vom Absender selbst.10 Das heißt, dass sechs von zehn Personen Links weiterleiten, ohne sie überhaupt selbst gelesen zu haben.” (Pos. 369)

Kein Bereich im Internet ist vor Fake sicher

Beilharz führt uns durch bekannte und unbekannte Fälle der betrügerischen Internet- Machenschaften. Er beschreibt genau und anhand zahlreicher Screenshots, wie Menschen täuschende Szenarien aufbauen, um von Nichtsahnende Geld oder ihre Account-Daten zu bekommen. Oder die gezielt mit Fake-News oder Falschmeldungen, gefälschten Szenebildern und tatsachenverdrehungen andere für ihre Verschwörungsideologien zu gewinnen.

Das Buch ist in mehrere große Kapitel eingeteilt, je nachdem, in welchen Sektoren des Internet Betrüger aktiv sind. Beilharz schildert die Verbreitung von Verschwörungstheorien (und anhand welcher Unstimmigkeiten man sie erkennen kann), wie man gehackte Amazonkonten erkennt, mit welchen Tricks sich Betrüger in soziale Profile hacken, wie Fake-Online-shops Gutgläubigen ihr geld stehlen. Oder wie Bots oder IKM Schreiberinnen Liebesgeflüster simulieren (bis hin zur Bitte, einen bestimmten Geldbetrag zu schicken, dass man die Reise für das erste Rendezvous bezahlen kann, das allerdings nie statt finden wird).

Was die Lektüre des Buches so spannend macht: immer wieder wechseln allgemeine Betrachtungen mit der Beschreibung ganz konkreter Fälle von Fake. So z.B. wie Bilder in anderen Kontext gestellt wurden und als “Beweis” dienen sollten; oder wie Falschmeldungen im Verbreitungsprozess zu weiteren Fakes mutierten. Und gerade diese Beispiele zeigen sehr deutlich, wie schnell Zeichen und Botschaften manipulativ missbraucht werden können.

Deep Fakes – der totale Realitätsverlust

Der Schluss des Fake-Reigens gilt den deep fakes, die jedes beliebige Individuum in jede beliebige Videoszene projizieren. Ki-basierte Video-Software verwandelt unsere Medien in eine unwahrscheinlich realitätsnahe Matrix.

Beilharz schließt mit dem Appell, dass sich Eltern, Schulen, Politiker und Portalbetreiber ihrer Verantwortung für die Medienwirkung des Internet besser bewusst werden.

Fake und Semiotik

Was mir einzig an diesem Buch fehlte, war eine kurze zeichentheoretisch oder semiotische Reflexion. Denn die Fähigkeit zum Fake liegt tief in Wesen der Kommunikation selbst begründet. Letztlich kommunizieren wir mit Hilfe von Zeichen, die für etwas, für unsere Botschaft stehen. Und dieses “für etwas” ist leider das prinzipielle Einfallstor auch für Täuschung und Betrug. Oder wie der Altmeister der Semiotik Umberto Eco meinte: Ein Zeichen ist alles, was sich als signifizierender Vertreter für etwas anderes auffassen lässt. Dieses andere muss nicht unbedingt existieren … Also ist die Semiotik im Grunde die Disziplin, die alles untersucht, was man zum Lügen verwenden kann.”(Semiotik, Entwurf einer Theorie der Zeichen, München, S.269.

Kampagnentracking mit Matomo

Tagging von Kampagnenlinks mit dem Matomo-URL Builder

In der Webanalyse ist es hinlänglich bekannt, dass unpräparierte Links in den Akquisitions-Reports unter Direktaufrufe gelistet werden. Lesenzeichenlinks, Links von QR-Codes, Links aus Mailings oder Newslettern – Nutzer, die auf diesem Wege auf die Seite kommen, versammelt die Webanalyse-Software (Matomo oder Google Analytics) unter direkten Zugriffen.

Das ist selbstverständlich für das Web- und Marketing-Controlling äußerst unbefriedigend. Daher haben Matomo (eigentlich schon Piwik; wir werden gleich sehen, inwiefern) und Google frühzeitig Abhilfe geschaffen. So genannte getaggte Links werden als Kampagnenlinks ausgelesen und in die entsprechenden Kampagnen-Reports gestellt. Tags sind gekennzeichnete Erweiterungen des ursprünglichen Kampagnenlinks, der auf die Ziel- oder Landingpage weist.

Der Google URL Builder kennt insgesamt 5 Tag-Parameter, die an den Link angefügt werden können. Drei Felder sind Pflicht: Kampagnenname, Quelle und Medium. Letztere beiden kennen wir schon aus den Acquisitions-Reports: beim Newsletter wären z.B. Medium “Mail” und Quelle: “Newsletter-Apr-21”. Die Quelle ist immer konkret, natürlich könnte hier auch nur “Newsletter” stehen. Dann könnten unter Term und Content z.B. konkretisierende Angaben stehen wie z.B. Term= ‘21-04-15’ (als Aussendedatumg) und Content = “Matomo-Schulung”. Die Parameter sind hierarchisch aufgebaut, die Struktur des Tagging sollte also zuvor genau festgelegt werden, damit einheitliche und aussagekräftige Reports erzeugt werden.

Matomo Kampagnentracking & -tagging

Bei Matomo unterscheide ich das einfache und das erweiterte Kampagnentracking. Seit etlichen Matomo-Versionen ist der URL Builder in das Admin-Backend integriert. Der klassische URL Builder kennt zwei Parameter, die mit den Tags pk_ übergeben werden: pk_campaign = Kampagnenname und pk_kwd für Keyword. Die Tags gehen selbstverständlich auf den alten Namen Piwik zurück.

Wer den integrierten URL Builder in Matomo verwendet, erhält die getaggten Links mit den Tags pk_. Beispiel:

Matomo Schulung

Erweitertes Kampagnentracking mit Matomo

Unter dem Namen Matomo wurde das Kampagnentracking nachhaltig erweitert. Mittlerweile kennt das Tracking bei Matomo acht Parameter. Das Parameter-Kürzel wurde konsequent umbenannt in: mtm_. Wer sich einen Überblick über die Parameter verschaffen will, kann sich auf der Matomoseite zum Kampagnentracking  informieren oder den Matomo-URL-Builder aufrufen

Interessant ist z.B., dass Matomo nun auch Kampagnen-IDs (mtm_cid) ermöglicht, oder erlaubt, Kampagnen in Kampagnengruppen (mtm_group) zusammenzufassen. Z.B. könnte eine Gruppe das Geschäftsjahr darstellen, so dass Unternehmen den Gesamterfolg aller Kampagnen eines Jahres zusammenfassen. Oder es können die einzelnen Kanäle (Newsletter, mailings, QR-Codes, Social Media) akkumuliert werden. Beispiel für getaggten Link bei erweitertem Tagging:

Matomo Schulung

Im Teilreport Herkunftseite – Medium taucht der Nutzer dann auch hier an erster Stelle auf: source: twitter und medium: social-media

Ausschnitt Kampagnenreport Quelle Medium

Benötigen Sie Unterstützung bei Ihrer Matomo Webanalyse? Schreiben Sie mir einfach an gerd.theobald@cofima.de!

Installation des Matomo-Kampagnen-Plugins

Das erweiterte Kampagnentracking kann nur mit einer Erweiterung (Plugin) durchgeführt werden. Das Plugin ist mittlerweile nicht mehr kostenpflichtig und kann einfach hochgeladen und aktiviert werden.

Installationswege für Matomo Plugins

Der erste etwas komplexere Weg geht über das Upload des Plugins “MarketingCampaignsReporting”, das man sich aus dem Pluginverzeichnis bei Matomo herunterladen kann. Der Upload kann dann unter Plattform => Marketplace gestartet werden. Allerdings muss der Admin zuvor noch in der Konfigurationsdatei config.ini.php zwei Zeilen hinzufügen, da der Plugin-Upload bei Matomo per default deaktiviert ist:

[General]
enable_plugin_upload = 1

Der Upload wird dann abschließenden mit der Eingabe des Matomo-Passworts bestätigt. Einfacher ist es, im Marketplace direkt nach dem Plugin zu suchen. Und es direkt zu installieren.

Matomo Marketplace Kampagnen Plugin

Acht Parameter für erweitertes Kampagnentracking mit Matomo

Nach der Aktivierung des Plugin stehen nun alle 8 Tags zur Verfügung, die Kampagnenlinks werden nun mit den mtm_Tags ausgezeichnet. Ein weiterer Vorteil des Kampagnen-Plugins: es liest auch die utm-Tags von Google aus. In der Folge dürften auch die Google-Ads Kampagnen in Matomo einfacher auszulesen sein.

Ein weiteres Plus besteht selbstverständlich in der Möglichkeit, auf alle Kampagnen-Tags segmentieren zu können und auch Segmentvergleiche durchzuführen z.B. zwischen Kampagnen, Kampagnengruppen usw.

Kampagnentags als Segmente bei Matomo

Zur Vertiefung des Verständnisses von Matomo und zur Implementierung einer professionellen Webanalyse mit Matomo empfehle ich den Matomo Workshop als Firmenseminar oder Online-Schulung.

Der Leistungsreport / Performance-Report bei Matomo und Googles Page Speed Insights

Seit Matomo Version 4 gibt es den Leistungsreport unter Verhalten => Leistung. Begründet wurde die Erweiterung u.a. mit Googles Update-Ankündigung für Mai 2021. Hier sollen die Ladeprozesse einer Seite einer detaillierteren Analyse unterzogen werden. Matomo möchte die Webanalysten darin unterstützen, langsame Seiten zu identifizieren und dort Abhilfe zu schaffen.

Matomo versucht automatisch, Leistungsdaten für jede Seitenansicht zu verfolgen, wenn der Matomo JavaScript-Tracker verwendet wird. Insgesamt baut Matomo die Ladezeit aus 6 einzelnen Parametern auf. Allerdings weist der Report Lücken auf, nicht immer werden alle Werte tatsächlich erfasst. Daraus ergibt sich eine Ungenauigkeit, allerdings lässt sich eine Tendenz durchaus nachvollziehen.

Google selbst analysiert im Hinblick auf das bevorstehende Update den Ladeprozess nach verschiedenen Parametern. Allerdings besteht ein erheblicher Unterschied zwischen beiden Analysen. Die Werte bei Matomo beschreiben den Status des technischen Fortschritts beim Laden einer Seite; d.h. die einzelnen Schritte von der Serveranfrage, über das Laden und Parsen bis zur vollständigen Anzeige des Windows werden gemessen.

Googles Analyse dagegen nimmt die Perspektive des Nutzers ein: wann sehe ich ein erstes Element, wann ist eine erste Interaktion möglich, wann ist das größte DOM Element geladen, wie stark verschieben sich die Layoutelemente beim Laden (der Cumulative Layout Shift ist kein Zeitwert)?

Leistungsreport aus Matomo Verhalten

Zurück zu Matomo: der Leistungsbericht enthält folgende Metriken:

  • Netzwerkzeit: Wie lange dauert es, die Verbindung zum Server herzustellen? (D.h. die DNS-Übersetzung der Anfrage und die TCP Verbindung)
  • Serverzeit: Die Antwortzeit des Servers an den Browser.
  • Übertragungszeit: Die Zeit, die der Browser benötigt zum Download der Serverantwort.
  • Zeit für DOM-Prozessierung: Die Zeit die verstreicht, bis eine Interaktion mit der Seite möglich ist (z.B. einen Navigationslink anzuklicken). Dieser Wert dürfte dem Wert Googles Time to interactive (TTI) entsprechen.
  • Zeit für DOM-Komplettierung:  Die Zeit, bis alle DOM Elemente geladen sind (insbesondere Bilder und Videos)
  • Ladezeit: Zeit, die der Browser benötigt, um Javascript-Code auszuführen, der auf das Ereignis window.load wartet, nachdem das DOM vollständig gerendert wurde.
  • Seitenladezeit: die Summe aller vorstehenden Metriken.

Bei manchen Ladeprozessen werden verschiedene Zeiten auch einmal nicht erfasst, daher sind die Durchschnittswerte bestenfalls Näherungswerte. Hier ein Ausschnitt aus dem kumulierten Report zu drei Seiten, Metriken in Millisekunden.

Der seitenspezifische Excelexport des Leistungsreports enthält sehr viele Daten. Für jede Seite werden auch die Besuchszeiten, Einstiege, Ausstiege, Absprünge, kleinste und maximale Zeitwerte der einzelnen Parameter angegeben. Der Report zeigt ansonsten die Zeiten in Millisekunden für die einzelnen Stationen (Es handelt sich um Blogartikel, deren URI ich der Übersichtlichkeit halber gelöscht habe).

Informieren Sie sich gerne über mein Angebot über Schulung und Beratung zur Webanalyse mit Matomo.

Die Parameter bei Googles Page Speed Insights

First Content Paint gibt die Periode bis zu dem Zeitpunkt an, zu dem das erste DOM Element beginnt zu laden. Iframes werden dabei nicht berücksichtigt. Zeiten bis 2 Sekunden liegen im grünen Bereich.

Speed Index gibt an, wie schnell eine Seite lädt; dabei ist aber nicht die Ladezeit absolut gemeint. Es kommt vielmehr darauf an, ob vom Start weg Inhalte schnell geladen werden. Wenn die ersten 50% der Seite schnell laden, ist der kumulierte Speed Index niedriger, als bei einer Seite, in der die ersten 50% langsamer laden aber dann die Ladezeit insgesamt bei beiden identisch ist. Google gibt an, dass es für die Messung des Speed Index den Ladefortschritt des Frames mit Hilfe eines Videos misst. Bis 4,3 Sekunden ist eine Website im grünen Bereich.

Largest Contentful Paint gibt die Zeit an, bis das umfangreichste Content Element im sichtbaren Browserbereich geladen ist. Die LCP Metrik gibt die Zeit, die es braucht, bis das größte Bild oder der größte Textblock gerendert ist. Im Viewport nicht sichtbare Elemente fließen nicht in die Wertermittlung ein. Nach Google sollte der LCP Score unter 2,5 Sekunden liegen.

Time to interactive gibt die Zeit an, die verstreicht, bis ein Nutzer mit ihr interagieren kann. Der Wert sollte unter 3,8 Sekunden liegen.

Total blocking Task ist der Zeitabschnitt zwischen dem First Contentful Paint und der Time to Interactive. Überschreitet dieser Abschnitt die Dauer von 50 Millisekunden, dann ist die überschüssige Wartezeit die Total Blocking Time.

Beispiel für Cumulative Layout Shift

Cumulative Layout Shift wird als Wert zwischen zwei Ladezuständen gemessen. Er ist ein Produkt aus zwei Werten: impact fraction*distance fraction. Impact fraction fragt, welchen prozentualen Anteil ein verschobenes Element im Layout hat und addiert den Anteil hinzu, um den es verschoben wird. Wenn die zwei Drittel des Fensters durch Nachladen eines Headers um ein Drittel nach unten verschoben wird (d.h. der Header nimmt die Hälfte des verschobenen Elements ein), dann ist der impact fraction 99 % oder 0,99. Die distance fraction gibt dann den Wertanteil, um wieviel das Element prozentual verschoben wurde, also 33 % oder 0,33. Der CLS errechnet sich dann aus dem Produkt beider Werte: 0,33

Das Diagramm soll noch einmal veranschaulichen, dass Matomos Leistungsreport am technischen Ladeprozess einer Website orientiert ist, während Googles Page Speed Insights aus der Sichtweise des Nutzers orientiert ist.

Diagramm Matomo Leistungsreport und Googles Page Speed Parameter

Matomo Update 4.1 – Internal Server Error!

Vor ein paar Tagen startete ich die Aktualisierung auf die neue Version Matomo 4.1. Zunächst sah alles gut aus. Als ich dann das Matomo-Verzeichnis aufrief – kam die berüchtigte Fehlermeldung: Internal Server Error 500.

Da nichts mehr ging, prüfte ich zunächst die PHP Einstellung. Die war zwar nicht topaktuell aber mit PHP 7.3 nicht unbedingt fehlerverdächtig.

Auf der Suche nach Lösungen stieß ich auf Gerhard Kerners Technikblog, der empfahl, in der Datenbank die Version auf die Vorgängerstufe herunterzusetzen. In der Tabelle piwik***_option reduzierte ich die Version. Ein neuer Startversuch schlug genauso fehl.

Die einzige Lösung war hier das manuelle Update. Die heruntergeladene Version Matomo 4.1 habe ich via FTP (im binären Modus) in mein Matomoverzeichnis hochgeladen. Beim neuerlichen Aufruf von Matomo kam nun wieder die vertraute Rückmeldung, dass die Datenbank noch aktualisiert werden müsse. Gelesen, getan und die neue Version läuft wieder wie am Schnürchen.

Ich habe die Serverlogs nicht geprüft, ich vermute aber, dass das Plugin Bot Tracker den Fehler verursacht hatte. Beim neuerlichen Einloggen kam die Warnung, dass das Plugin mit dieser Version nicht kompatibel sei. Ich hatte es zwar deaktiviert, nun aber völlig gelöscht.

Also – wenn das (halb-)automatische Update nicht klappt, kommt man mit dem manuellen Update ohne Datenverlust ans Ziel.

Nachtrag vom 11.02.2021: auch das Update von früheren Versionen als 4.1.0 auf 4.1.1 erzeugt einen Servererror 500 bei mir. Auch hier hat das manuelle Nachinstallieren geholfen. Das Update von 4.1.0 auf 4.1.1 líef dagegen reibungslos.

WordPress-Transfer einfach erklärt

Transfer einer WordPress Installation

Es kommt häufiger vor, dass man vor der Aufgabe steht, eine WordPress Installation zu transferieren. Eigentlich ist der Vorgang nicht besonders kompliziert, aber die Schritte sollten in der richtigen Abfolge geschehen.

Zunächst: was heißt Transfer und welche Fälle sind damit gemeint? Es kann sein, dass ich meine WordPress-Seite lokal auf meinem Rechner entwickle. Hierfür ist z.B. Xampp (für die gängigen Betriebssysteme erhältlich unter apachefriends.org) eine sehr gute Umgebung, die alle nötigen Funktionen für ein dynamisches CMS bereithält. Die neue Installation kommt (Ende 2020) mit PHP 8.0. Oder ich möchte meine WordPress-Seite zu einem anderen Provider übertragen. Oder ich habe eine neue Seite mit WordPress unter einer Subdomain entwickelt (z.B. neuesite.meinedomain.tld) und  möchte zuletzt die alte Seite abschalten und meine Domain mit der neuen Seite verknüpfen. In mindesten zwei von den drei Fällen ändert sich der Domainname, und in zwei Fällen von dreien, muss ich eine neue Datenbankverbindung einrichten.

Ich gehe hier auf den Umzug einer lokalen WordPress-Instanz auf einen Provider ein.

Auf Xampp liegt die WordPress-Installation im Rootverzeichnis htdocs in einem Unterverzeichnis. Heißt das Unterverzeichnis “projekt” dann lautet die Xampp-Domain http://localhost/projekt

Platz auf dem Server des Providers schaffen

Zunächst brauche ich eine neue Heimat für mein WordPress, diesmal auf dem Server meines Providers. Die richte ich mit einem FTP-Programm wie Filezilla ein. Die Zugangsdaten gibt mir mein Provider. In dieses Verzeichnis ziehe ich nun per Drag & Drop alle WP Ordner und Dateien.

Domain mit dem Verzeichnis verknüpfen 

Das Verzeichnis muss ich beim Provider nun als Ziel meiner registrierten Domain angeben. Hierfür haben Provider die Domainverwaltung eingerichtet. Ich ordne hier der Domain einfach mein neu erstelltes Verzeichnis zu:

Serververzeichnis anlegen

Bis der Server die Weiterleitung auf das Verzeichnis registriert hat, können schon einmal 20 Minuten ins Land gehen.

Die Datenbank anpassen

In der Zwischenzeit exportiere ich die Datenbank aus Xampp mit Hilfe der Adresse http://localhost/phpmyadmin. Ich rufe meine Datenbank auf und markiere alle Tabellen. Mit Klick auf Export bietet mir der folgende Bildschirm den einfachen oder nutzer-angepassten Download. In der Regel genügt der einfache, die SQL Datei landet im Download-Ordner auf dem Rechner.

Datenbank exportieren

Beim Provider lege ich eine neue Datenbank an und notiere mir genau Datenbanknamen, Nutzernamen, Passwort und den Datenbank-Servernamen. In die neue noch leere Datenbank beim Provider importiere ich die DB von meinem Rechner. Es ist der umgekehrte Vorgang wie beim exportieren. Ich rufe die noch leere Datenbank auf, klicke oben auf Importieren und lade die Datenbank von meinem Rechner hoch.

Jetzt ist also WordPress auf dem Server und die Datenbank in der Datenbankverwaltung des Providers. Nun muss ich noch einige Einstellungen vornehmen, genauer gesagt zwei.

Zunächst gehe ich in die Datenbank mit Hilfe des bekannten Programms und rufe die Tabelle _options auf (welches Präfix du hast, weiß ich natürlich nicht). 

Datenbank in options bearbeiten

Die beiden ersten Zeilen enthalten noch die alte Adresse, über bearbeiten rufe ich die beiden Zeilen nacheinander auf und überschreibe die alte lokale Adresse mit meiner Domain, also https://meinedomain.tld.

Datenbanktabelle-Feld überschreiben mit neuer URL

WordPress mit der neuen alten Datenbank bekannt machen

Würde ich jetzt die Seite aufrufen, käme eine Meldung die einen Datenbankfehler verkündet. WordPress findet selbstverständlich die alte Datenbank auf meinem Rechner nicht. Ich muss also die alte Datenbank unter neuem Namen erst mit der WordPress-Instanz auf dem Server bekannt machen.

Dazu brauche ich nochmal das FTP Programm und suche gleich unterhalb meines Verzeichnisses die Datei config.php. Der rechte Mausklick öffnet u.a. die Frage, ob ich die Datei ansehen oder bearbeiten. Ja das will ich (ggf. muss ich ein Bearbeitungsprogramm auswählen, z.B. Wordpad) und komme in die Datei. Hier überschreibe ich ziemlich weit oben die Datenbank-Parameter mit den neuen, die mir mein Provider gegeben hat.

Hier die config.php, wie sie auf Xampp aussieht:

Config.php anpassen für neue Datenbankverbindung

Die grünen Infos ‘wordpress’, ‘root’, ‘localhost’ müssen überschrieben werden und das Passwort eingefügt werden. Mit Schließen der Datei im Bearbeitungsprogramm wird sie auch an den Server übertragen. 

Zusätzlich kann ich in die config.php noch zwei Zeilen unterhalb der Datenbank-Deklaration einfügen (natürlich kommt hier wie oben in die Datenbank die richtige, also meine Domainadresse):

define( ‚WP_HOME‘, ‚https://meinedomain.tld‘ );
define( ‚WP_SITEURL‘, ‘https://meinedomain.tld‘ );

Selbstverständlich muss ich genau darauf achten, kein Zeichen (Anführungszeichen, Strichpunkt) aus Versehen zu löschen, dann funktioniert es nicht mehr.

Wenn ich jetzt im Browser die Domain aufrufe, sollte die WordPress-Seite zu sehen sein. Kommt eine Fehlermeldung, muss ich alle Schritte und Einträge noch einmal überprüfen. Da Capo!

Übrigens ist es bei WordPress nötig, nochmals alle Funktionen zu überprüfen, also Bilder, Downloads, Anmeldungen usw. Ggf. haben bestimmte Funktionen oder Anwendungen noch den alten URL. Dann ist manuelles Nacharbeiten angesagt.

Liest das wer?

Die 62. Ausgabe von Websiteboosting veröffentlichte unter R-Leuchtungen! Teil 2 eine Anleitung, wie man das Leserengagement im Hinblick auf den Textumfang beurteilen und statistisch bewerten kann. Drei Tools kamen hierfür zum Einsatz: Google Analytics, Screaming Frog und die Software R.

Content Marketing ist Hype und das betrifft in erster Linie den textlichen Anteil. Mit verlässlicher Regelmäßigkeit wird der Warnhinweis mitgeliefert, dass Content Marketing kostet. Vor allem, wenn man “wertvollen” Content anzielt, der dem Nutzer einen deutlichen “Mehrwert” bietet. Und qualitätsvoller Content braucht Ressourcen, egal, ob er selbst erstellt oder beauftragt ist.

Eine ironische Zwischenbemerkung kann ich hier nicht unterdrücken. Anscheinend gibt es zwei Typen von Inhalten. Die, deren Themen dutzende Male von Dutzenden von Autoren*innen erstellt wurden. Gemäß dem etwas abgewandelten Bonmot Karl Valentins, dass eigentlich nichts Neues mehr unter der Sonne gesagt werden kann. Neu ist nur, dass es eine(r) sagt, der/die’s bis dato noch nicht sagte. Der andere Content-Typus? Das ist der, den man vergeblich sucht. Sozusagen die dunkle digitale Materie des Web.

Kommen wir wieder zum Thema: Wenn Content schon aufwändig zu erstellen ist, will der Unternehmer damit zweierlei: dass er gelesen wird und einen messbaren Effekt auf den unternehmerischen Erfolg hat. Zwar kann Content auch einen messbaren Effekt haben, wenn er nicht gelesen wird (z.B. durch SEO Effekte, die Besucher zur Seite führen). Aber gelesen werden will man doch, bitteschön, auch. Nur, tut’s auch einer? Und zwar mit angemessenem Engagement?

Mir geht es hier nicht um die technische Lösung, die Daten aus Google Analytics und dem Screaming Frog mit Hilfe der Statistiksoftware R auswertet. Kurz gesagt werden drei Daten aus zwei Quellen verarbeitet: der URL-Path, die durchschnittliche Besuchsdauer und die Zahl der Worte auf jeder Seite. Bei einer angenommenen durchschnittlichen Lesegeschwindigkeit von 220 Wörtern pro Minute, lässt sich anhand der Wortzahl pro Seite eine durchschnittliche Zeit angeben, die benötigt wird, den Artikel zu lesen. Abweichungen nach oben oder unten können dann statistisch ausgewertet werden.

Wie intensiv befasst sich nun der Nutzer mit dem Content wirklich?

Die Frage lässt sich so nicht direkt beantworten. Das ist den Autoren auch bewusst, die darauf hinweisen, dass sich ein Besucher auch bei geöffneter Seite mit anderem beschäftigen kann als mit dem Text. Sie weisen auch darauf hin, dass das geschilderte Verfahren den gesamten humanen Seiten-Text erfasst und nicht nur den Primary Content. Als Lösung verweisen sie auf die Selektion des betreffenden Textes des entsprechenden DOM Elements.

Weitere kritische Parameter, die das Leserengagement verwässern können

Bei aller Begeisterung über die technischen Möglichkeiten, die Screaming Frog mit API, Google Analytics und R bieten, bleibt die Frage, in welchem Umfang statistische Abweichungen von der durchschnittlichen ermittelten Lesedauer abweichen können, dürfen oder müssen. Hier ein paar ergänzende Überlegungen zu dem durchaus interessanten und lesenswerten Artikel:

Die Content-Länge als kritischer Faktor

Ich halte es für sehr wahrscheinlich, dass ein langer Text (> 1000 Wörter) oft gar nicht ganz gelesen wird. Ist der Artikel nach dem Prinzip der umgekehrten Pyramide verfasst, habe ich das Wesentliche schon nach vielleicht einem Textdrittel erfasst. Für längere Texte müsste ein Dämpfungsfaktor die zu erwartende Lesedauer reduzieren.

Nach Absprung: 0 Sek.

Besucher, die die Zielseite konsumieren und wieder aktionslos verschwinden, haben 0 Sekunden Besuchszeit. Blogbetreiber kennen die leidige Thematik. Ein HeartBeatTimer kann hier etwas Abhilfe schaffen, indem er nach einer angemessen Zeitfrist ein Ereignis auslöst und so auch Absprüngen einen Zeitverlauf zumessen kann. Weiteres in meinem Artikel zur Messung des Leserengagements.

Leicht lesbar – oder doch nicht?

Rudolf Flesch entwickelte auf Basis weniger Informationen für Texte (in europäischen Idiomen verfasst) den so genannten Lesbarkeitsindex. Er basiert auf der durchschnittlichen Satzlänge (Wortzahl pro Satz) und der durchschnittlichen Silbenzahl pro Wort. Texte mit einem Fleschwert unter 50 sind schwer bis sehr schwer zu lesen. Gut, die Empfehlung lautet ohnedies, einfach gut lesbare Texte für das Web zu schreiben. Ein Test auf Lesbarkeit schadet dennoch nie. Das WordPress-Plugin Yoast tut hier seine Meinung kund, oder man nutzt ein Portal wie leichtlesbar.ch. Ein anderer Punkt: Verwende ich eine bildreiche, rhetorische Sprache, die den Leser zum Nach-Denken animiert?

Typografisches Augenpulver?

Ein weiterer Aspekt betrifft die Typografie. Nicht alles lässt sich so gut lesen wie eine Überschrift in der BILD-Zeitung (rein physiologisch versteht sich). Weiße Schrift auf dunklem Grund, schwacher Schriftkontrast, der die Typen mit dem Hintergrund zu einem quasi farblichen Einheitsbrei verschwimmen lässt, zu kleine Schrifttypen usw. – all das kann das Lesen verleiden und die Besuchszeit verkürzen.

Make me think – Bilder und Videos auf den Seiten

Zu all dem kommt noch der nicht textliche Content. Bild und Infografiken stoppen den Lesefluss. Bilder werden betrachtet, interpretiert, auf den Text oder die Unterschrift bezogen. Noch mehr Zeit beanspruchen Videos – hier könnte man dann die Betrachtungszeit des Videos (Ereignissmessung!) von der gesamten Seiten-Besuchsdauer abziehen, wenn man das reine Leserengagement messen will. Vorausgesetzt, das Video startet nicht automatisch nach Seitenaufruf, sondern erst nach anklicken der Startbuttons.

Wie man sieht, steckt der Controlling Teufel mal wieder im Detail. Ungeachtet dessen beschreibt der Website-Boosting Artikel einen interessanten Weg, dem Inhalt angemessenen Engagements statistisch zu Leibe zu rücken.

Der (un-)heimliche Leser – Messung des Leserengagements in der Webanalyse

Vor kurzem las ich in dem Newsletter von 121watt (07.07.2020) folgenden Passus: “Ob dein Content sein Ziel erreicht und gut bei deiner Zielgruppe ankommt, kannst du anschließend anhand verschiedener Kennzahlen überprüfen. Eine niedrige Absprungrate gepaart mit einer langen Verweildauer sprechen zum Beispiel dafür, dass sich deine Nutzer intensiv mit deinen Inhalten auseinandersetzen und du ihre Bedürfnisse richtig adressierst.”

Selbstverständlich wissen Alexander Holl und sein Trainerteam es besser, als ihre plakative Aussage hier vermuten lässt.. Denn Absprungrate und Verweildauer sind sehr grobe Kennzahlen für das Besucherengagement. Für mich gaben sie einen Anlass, über das Messen des Engagements, die die Besucher Seiten-Inhalten widmen, etwas detaillierter zu schreiben.

Read More

Instagram – den Social Media Account vom Desktop aus verwalten

Hierüber wurde in letzter Zeit schon häufiger geschrieben, einige Ergänzungen aus eigenen Erfahrungen möchte ich hier aber noch hinzufügen.

Selbstverständlich ist es für Betreiber und Agenturen nicht immer einfach, die Prozesse der Bild- oder Videoerstellung gerade für Instagram effizient zu gestalten. Das Smartphone ist dann letztlich das Nadelöhr, durch das die Posts mit Bild und Text gehen müssen. Aufnahmen werden doch oft mit professionellem Gerät und Bildbearbeitungssoftware wie Photoshop oder Gimp erstellt und gestaltet. Für die digitale Veröffentlichung müssen sie dann aber immer noch über das Mobile hochgeladen werden. 

Kostenlose Tools wie Gramblr, die früher vom Desktop Posts ermöglichten, funktionieren nicht mehr. Sie hatten auch insofern Einschränkungen, als z.B. keine Hashtags ergänzend vorgeschlagen wurden. Dafür konnte man ab und an garantierte (Fake-?)Likes einheimsen.

Mittlerweile gibt es zwei Wege, den Instagram Kanal vom Desktop aus zu befüllen. Im einen Falle simuliert man mit dem Desktop einfach, er sei ein Mobilgerät. Der andere Weg geht über das Creator Studio von Facebook.

Read More

Individuum est ineffabile – die vergebliche Hoffnung auf „den“ Kunden

Das Zitat ist zugegeben schon recht betagt, seine Wurzeln reichen in die Antike zurück, in die griechische Philosophie. Was es aussagen will, ist dennoch recht einfach vermittelbar, auch das kann man mit den Mitteln der Aussagenlogik erschließen, deren erster großer Lehrer Aristoteles war. Worum geht es? Eine begriffliche Bezeichnung (Baum, Kunde) bezeichnet etwas Allgemeines, der Singular steht für eine Art Kategorie. Will man nun diese Bezeichnung etwas genauer kennzeichnen, benötigt man eine Differenz, eine differentia specifica. Also Baum als Eiche, Kunde als zahlender oder zu mahnender. Diese Differenz kann man ein Stück weit weitertreiben, aber irgendwann ist das Aussagenpotenzial erschöpft. Wir kommen nie an das Individuum als solches heran, weil wir es nicht differenzieren können, deshalb heißt es ja In-dividuum, unteilbar ist es auch un-mitteilbar. Schauen wir uns einmal die Aussagen der Online-Marketer an, nirgends lese ich den Satz so häufig wie: müssen wir wissen, was unser Kunde genau von uns will. (Zitat aus: https://entwickler.de/online/e-business/online-marketing-karl-kratz-579800391.html) Die Googleabfrage „Was der Kunde will“ (sic!) ergibt 24300 Treffer. Aber Ignoramus et ignorabimus (noch ein Zitat!), wir wissen es nicht und werden es nicht wissen. Denn „der“ Kunde ist schlichtweg nicht kommensurabel, wir kennen nicht seine Motivation, seine Antriebe, seinen Frust; und wer wollte schon behaupten, dass er sich selbst so gut kenne, dass er seine Handlungsmotivationen darlegen kann wie ein Anatom ein Präparat. Selbstverständlich meinen unsere Marketer etwas anderes, nämlich was „die“ Kunden wollen. Aber nun die Frage, wie groß muss die Gruppe „der“ Kunden sein, damit ich eine halbwegs plausible Prognose über das Verhalten abgeben kann. In passiven Systemen (Roulette) gilt bei Kleinmengen das Gesetz der kleinen Zahlen, d.h. etliche Kunden werden uns durch das gespannte Auffangnetz schlüpfen. Nun sind Online-Marketer ja keine passiven Fallensteller, sondern arbeiten aktiv mit Call to action und neuropsychologischen, multisensorischen und anderen Methoden. Aber auch hier gilt, wo beginnt ein voraussagbarer Effekt der Beeinflussung, ab welcher statistischen Größe können wir eigentlich von einer gesicherten Erkenntnis sprechen? 100, 1000, 10000, haben wir überhaupt eine belastbare statistische Basis um von „den“ Kunden (Plural!) zu sprechen. Wenn statt zwei Kunden vier kaufen, ist das ein Wachstum um 100 %, statistisch aber bestenfalls kontingent zu werten. Und ab welcher Zahl können wir statistisch vertrauen? Warum schweigen die Marketer darüber? Ignoramus.